Google의 Gemini AI 챗봇, 편향된 이미지 생성으로 비난 받아

Google의 AI 기반 챗봇인 Gemini 1.5가 이미지 생성 능력에서 편향성을 지적 받고 있습니다. 몇 초 만에 매혹적인 이미지를 생산한다고 주장하는 이 챗봇은 특정 요청에 대응할 때 반복적인 패턴을 보인 후 심사를 받게 되었습니다. 보고에 따르면 Gemini 1.5는 특정 요청에 의해 유백인을 이미지로 생성하는 것을 꾸준히 피한다고 합니다.

이 약자는 AI 챗봇을 시험하는 동안 이러한 주장된 편향성을 발견했습니다. 폐굴 주변, 바이킹, 컨트리 음악 팬 등 유백인들의 이미지를 생성하려는 시도가 개최에 유색인 이미지를 결과로 냈다고 보고되었습니다. 문제가 처음 주목받은 곳은 이전 컴퓨터 엔지니어 및 어린이 TV 작가인 프랭크 J. 플레밍에 의해 X 소셜 미디어 플랫폼에서 주목받았습니다.

플레밍의 첫 요청으로서 교황의 이미지를 요청했을 때 유럽계 후속을 오는 사람들의 이미지가 생성되었습니다. 그런 후, 그는 명시적으로 언급하지 않고도 백인 이미지를 수신하려고 요청을 다른 변형으로 시도했음에도 불구하고, 모든 후속 요청은 여전히 유색인의 이미지를 생성하기로 하였으며, 그중에는 중세 기사, 소백의 빵에 메이오 산드위치를 먹는 사람, 몸쓰는 기술이 부족한 사람, 그리고 컨트리 음악 팬 및 바이킹을 보여주는 것들이 있었습니다.

다른 사용자들도 이러한 발견을 보강하여, 주장된 편향으로 인해 실망을 표명했습니다. 한 명의 사용자는 심지어 유백인 교황의 이미지가 교황 내의 다양성을 강조하는 논란적 분량의 동반 텍스트와 함께 제공되었다고 주장했습니다.

인종적 편향의 비난은 빠르게 소셜 미디어 전체에 퍼지며, “각성(woke)”을 주장하는 AI 챗봇이 어떻게 인종주의 성향을 드러낼 수 있는지에 대한 의문을 제기하는 사용자들이 있었습니다. Google은 아직 이러한 주장에 대한 대응을 하지 않았으며, 많은 사용자들은 편향된 AI 알고리즘의 윤리적 파급 효과에 대해 실망하고 우려하고 있습니다.

이러한 주장의 진위는 아직 완전히 검증되지 않았지만, 이 사건은 참으로 공정하고 다양하며 포용적인 콘텐츠를 생성할 수 있는 AI 챗봇을 개발하는 과정에서 마주한 도전을 강조합니다. 또한 이는 기술 기업들이 AI 알고리즘의 공정성과 투명성을 보장하는 책임에 대한 대화를 불러일으킵니다.

The source of the article is from the blog krama.net

Privacy policy
Contact