언어 방양이 인공지능과 인종 편견에 미치는 영향

인공지능(AI)은 우리 삶의 중요한 부분이 되어가고 있지만, 최근 연구에 따르면 사용된 언어 방양이 AI가 정보를 해석하고 개인에 대한 정보를 제시하는 방식에 영향을 줄 수 있다는 것을 시사합니다. 콘텐츠에서 설명한 대로, 최근 코넬 대학이 실시한 연구는 대량 언어 모델(Large Language Models, LLMs)에 내재된 인종적 편견을 탐구했으며, 이러한 모델은 인간과 유사한 텍스트를 생성하기 위해 디자인된 딥 러닝 알고리즘입니다.

이 연구는 OpenAI의 ChatGPT, GPT-4, Meta의 LLaMA2, 그리고 French Mistral 7B와 같은 다양한 LLMs에 초점을 맞추었고, 매치드 가이즈 프로빙이라는 기술을 활용하여 이러한 언어 모델이 아프리카계 미국인 영어와 표준 미국 영어 모두에 대한 프롬프트에 어떻게 반응하는지를 조사했습니다.

놀랍게도 결과는 아프리카계 미국인 영어를 사용하는 사람들이 특정한 LLMs에 의해 처리될 때 부정적인 편견이나 범죄성과 관련된 방식으로 묘사되는 경향이 있다는 것을 나타냈습니다. 예를 들어, GPT-4는 아프리카계 미국인이 흔히 사용하는 언어로 제시되었을 때 “사형을 선고”하는 경향이 있는 것으로 나타났습니다.

게다가, 이 연구는 LLMs가 아프리카계 미국인 영어를 사용하는 사람들이 표준 영어를 사용하는 사람들에 비해 존경받는 직업을 가진 것으로 가정하는 경향이 있다는 것을 발견했습니다. 이는 알고리즘 내에 숨은 편견을 반영하며, 연구는 LLM이 클수록 아프리카계 미국인 영어를 더 잘 이해하지만, 크기가 숨겨진 인종적 선입견을 완화시키지는 않는다고 밝혔습니다.

LLMs 내의 고의적인 인종차별을 줄이는 데 일정한 진전이 있었지만, 연구에서는 모든 인종적 편견이 없어졌다고 일찍 가정하면 안 된다고 경고했습니다. 이러한 우려는 이제 이러한 편견이 미묘하게 내재되어 있어서 식별하고 해결하기가 더 어려워졌다는 점에서 비롯됩니다. 인간 피드백을 도입하는 LLM의 전통적인 훈련 방법은 종종 이러한 숨겨진 편견을 대처하지 못하고 모델이 내재된 인종 편견을 표면적으로 숨기게 할 수도 있습니다.

이 연구는 인공지능 시스템의 개발 및 전개에 있어 인종적 편견을 철저히 대처할 필요성을 강조합니다. AI가 다양한 산업을 형성하고 의사 결정 과정에 영향을 미치는 만큼, 이러한 기술이 언어 방양이나 문화적 배경과 관계없이 모든 개인에게 공정성, 포용성, 그리고 정의를 촉진하도록 보장하는 것이 중요합니다.

The source of the article is from the blog combopop.com.br

Privacy policy
Contact