Google의 AI 사고로 인해 보다 엄격한 조치가 요구된다

인공 지능의 예측할 수 없는 응답이 새로운 도전을 제기

최근 Google이 검색 결과에서 즉각적인 답변을 제공하기 위한 AI 기반의 검토 도구를 도입하면서, 월계민에 대한 존재를 주장하는 등 예상치 못한 상상력이 풍부한 응답이 생성되었습니다. 어떤 경우에는 협회 프롬 아시아티드 프레스의 기자들이 ‘고양이가 달에 다녔느냐’고 물었을 때, Google의 AI 검색은 우주비행사들이 실제로 달 표면에서 고양이 친구들을 만나고 돕는다는 기발한 응답을 반환했는데, Neil Armstrong의 역사적인 말을 “고양이에게는 작은 한걸음”으로 유머있게 표현했습니다.

전문가들은 의심스러운 소스에서 파생된 AI 시스템들로 인해 거짓 정보가 전파되는 것에 대해 우려를 표현했습니다. 미국의 AI 연구자인 Melodie Mitchell은 Google의 AI가 미국의 무슬림 대통령들에 대해 질의할 때 실제로 경험한 것으로, Google은 틀린 정보를 포함한 바로 믿어버리고 Barack Obama를 유일한 무슬림 대통령으로 잘못 주장했습니다. Mitchell은 AI가 틀린 주장과 함께 학술 논문을 인용하여 틀린 정보를 뒷받침했지만, 이 학술 논문이 그 허위 정보를 입증하지는 않았지만 단순히 유포론만 언급했다고 지적했습니다.

AI의 실수는 웃긴 오류에 머무르는 것뿐만 아니라 잠재적으로 해로운 오류도 포함합니다. 사용자가 따르는 중대한 비상 쿼리는 스트레스와 긴급성으로 인해 확인되지 않을 수 있기 때문에, 처음 눈에 띄는 정보에 잘못 된 신뢰를 하면 상황이 악화되는 등의 위험이 존재합니다. 게다가, 이 신경망이 훈련에 사용되는 데이터셋에서 발견된 문제가 있어서 문제가 있는 콘텐츠를 강조한다는 점에 대한 우려가 커지고 있습니다.

Google은 이러한 오류를 수정하기 위한 신속한 조치의 중요성을 인정하고, 이러한 경험들을 향후 향상을 위해 활용하고 있습니다. 기능과 관련된 문제들은 미국 개발자들인 OpenAI와 Perplexity AI와 같은 업체의 경쟁적 지형 속에서 앞선 나아갈 필요성을 인식하게 했을 수도 있습니다. 특히, Perplexity AI가 Google보다 몇몇 쿼리에 대해 더 정확한 응답을 제공하는 것으로 밝혀졌습니다.

책임 있는 AI 감독의 중요성

기술이 계속 발전함에 따라 Google과 같은 AI 시스템들은 점점 더 많은 정보를 전달하기 위한 신뢰를 받게 되고 있습니다. 그러나 이 책임은 정확성이 손실되면 내재적인 위험을 동반합니다. 이러한 상황에서 두 가지 주요 질문이 제기되는데요:

1. AI가 제공하는 정보의 정확성을 어떻게 보장할 수 있을까요?
2. 언제 잘못된 정보의 확산을 막기 위한 조치를 취해야 할까요?

AI 실수와 오해와 관련된 도전은 AI 시스템이 어디에서 정보를 가져오는지의 신뢰성 보장, 사회적 편향을 강화하지 않는 것, 오류 발생 시 신속한 수정 등을 포함합니다.

오해와 편향 다루기

이 영역에서의 논란은 종종 AI가 생성한 잘못된 정보의 책임을 누가 져야 하는지와 어떻게 그러한 발생을 방지하기 위해 AI를 규제할 지 오가는 것을 포함하고 있습니다. 정보 확인을 위한 더 정교한 알고리즘 개발 및 신뢰할만한 데이터에서 가져오는 것은 해결책의 일부입니다. 그리고 훈련 데이터셋 내에 내포된 편견을 다루는 것은 공정하고 편향되지 않은 AI 결과를 위한 근본적인 부분입니다.

AI 기반의 검토 도구의 장점은 다양합니다. 정보에 신속하게 접근하고 많은 쿼리를 동시에 다루며 일부 인간적 오류를 제거하는데 도움을 줍니다. 그러나, 단점 또한 상당히 중요합니다. 잘못된 정보 제공, 편향을 강화할 가능성, 중요한 결정에 의존할 경우 혼란이나 피해를 줄 수 있습니다.

요약하면, AI의 잠재력이 방대한 만큼 엄격한 감독, 개선, 윤리적 고려가 필요합니다. 인공 지능과 그 발전에 대해 더 많은 정보가 필요하시다면, 다음 링크들이 유용할 수 있습니다:
OpenAI
Google

이 강력한 기술에 대한 대중의 신뢰를 저해하지 않기 위해 산업 리더와 규제 기관이 함께하여 책임 있는 인공 지능을 위한 표준과 프레임워크 개발에 기여해야 하는 것이 중요합니다.

Privacy policy
Contact