인공지능이 현실에서 벗어난다
최근 연구 결과, 인공지능(AI) 세계에서 걱정스러운 추세가 발견되었습니다. AI 모델을 상대로 AI 자체에 의해 생성된 텍스트 데이터를 훈련시키는 것이 모델 붕괴라는 현상을 일으켰습니다. 연구자들이 발견한 이 현상은 모델이 난해한 결과물을 생산하며, 대규모 언어 모델의 발전에 상당한 도전을 제시합니다. 인간이 생성한 데이터의 근접한 포화와 AI가 생성한 텍스트의 급격한 증가로 이러한 추세의 함의는 심각합니다.
데이터 오염이 모델 쇠퇴로 이어짐
연구자들이 실시한 실험은 AI가 생성한 텍스트를 활용해 AI 모델을 훈련시킨 경우, 모델이 드물고 정보가 적은 내용을 무시하고 점차 동질적인 결과물을 생산하는 것을 확인했습니다. 모델의 각 연속적인 반복은 데이터 품질의 악화로 이어져, 결국 현실과 닮지 않은 무의미한 결과물이 도출되었습니다.
생물학적 개념과의 평행
모델 붕괴 개념은 컴퓨터 과학자 하니 패리드가 지적한 바와 같이 생물종의 근성 현상과 기이한 유사성을 띕니다. 유전적 다양성이 종의 생존에 중요한 것과 마찬가지로 데이터 다양성과 신뢰성은 AI 모델의 성공에 필수적입니다.
AI 개발을 위한 데이터 실천 재정의
AI 모델의 붕괴를 예방하기 위해 데이터 훈련 전략의 변화가 필수적임은 분명합니다. 연구자들은 실제 인간이 생성한 데이터와 합성 데이터를 조화롭게 결합하는 균형 잡힌 접근 방식을 제안하며, AI 개발의 기초로서 인간이 창조한 콘텐츠의 필요성을 강조합니다. 기술 거물들 간의 협력 및 인간 콘텐츠 창출을 장려하는 것이 AI 생성 데이터에 과대 의존으로 인한 위험을 완화할 수 있는 잠재적인 해결책으로 제시됩니다.