AI 사실 확인 오류: 구글의 AI 개요가 부정확으로 비판 받아

인공지능 분야에서 Google은 사용자가 새로운 “AI 개요” 검색 기능이 쿼리에 사실적으로 부정확한 답변을 제공한다는 사실을 확인한 후에 비난을 받았습니다. 이 기능은 2주 전에 도입되어 복잡한 질문에 대한 대답 작업을 간소화하기 위해 Google 검색 페이지 상단에 집계된 응답을 제공하도록 설계되었습니다.

AI가 이상한 치료법을 제안한 사례, 예를 들어 피자를 고치기 위해 치즈를 바르거나 건강상의 이유로 돌을 먹어야 한다고 제안한 사례, 그리고 전 대통령 바락 오바마의 종교에 관한 거짓 이론이 동반된 사례는 AI가 생성한 답변의 신뢰성에 대한 의문을 제기했습니다.

AI 스타트업 벡타라가 실시한 연구에 따르면, 챗봇은 정보를 거짓으로 만드는 경우가 높은 범위에서 발생하며, 경우에 따라 27%까지 올라간다고 합니다. 이처럼 제조된 오해 사례들은 주로 “환각”이라고 불리며, ChatGPT(OpenAI)나 Gemini(Google)와 같은 대규모 언어 모델(Large Language Models, LLMs)에서 비롯되었습니다. 이러한 모델은 패턴 인식에 기반한 응답을 예측하도록 프로그래밍되어 있어 사실적 정확성 대신 패턴 인식을 우선시합니다.

AI 전문가들은 왜 이러한 환각이 발생하는지 밝혔습니다. 훈련 데이터가 불완전하거나 편향적인 경우, AI의 출력물이 오도될 수 있습니다. 아르트팩트(Artefact)의 하난 와잔은 AI의 과정을 인지과정에 비유하며, 우리가 말하기 전에 생각하는 것처럼 AI도 방대한 데이터베이스에서 단어의 순서를 예상하도록 그립니다. 또한, 맥킨지 회사인 콰녈럼블랙(QuantumBlack)의 알렉산더 수하레브스키는 AI를 “하이브리드 기술”로 언급하며 실측 데이터를 기반으로 응답을 수학적으로 계산하는 중요성을 강조했습니다.

Google은 환각이 데이터 집합의 부족, 잘못된 가정 또는 정보 내부의 선입견에서 발생할 수 있다고 인정했습니다. 검색 거대기업은 이러한 AI의 실수가 부정확한 의료 진단으로 인한 불필요한 개입을 유발할 수 있다고 지적했습니다.

데이터에서 품질이 양보다 우선입니다, HTEC 그룹의 이고르 세보는 AI “환각”이 창의성을 일으킬 수 있지만, AI 모델에게 진실과 허구를 식별하는 방법에 필요한 교육이 절박하다고 언급했습니다. OpenAI는 Axel Springer와 News Corp와 같은 신뢰할 수 있는 언론 기관과 파트너십을 맺어 AI 모델을 더 신뢰할 수 있는 데이터로 교육하고 있으며 데이터의 품질을 양 대신 중시하는 중요성을 강조했습니다. 이러한 조치는 AI 챗봇의 정확성과 신뢰성을 향상시키는 중요한 한 걸음입니다.

The source of the article is from the blog meltyfan.es

Privacy policy
Contact