산업용 인공 지능: 삶같은 환상 창조의 여정

산업용 인공 지능 분야는 현실적인 픽셔널 캐릭터를 만들기 위해 애니메이터, 장난감 디자이너 및 비디오 게임 제작자로부터 영감을 받아 왔습니다. 이 분야의 연구자들은 인간들과 현실적으로 상호작용할 수있는 삶같은 AI 캐릭터를 개발하기 위한 여정을 떠난 것으로 알려져 있습니다.

1999년에 인기를 끈 Furby 장난감은 이러한 믿음을 증명하는 한 가지 사례입니다. 이 장난감을 둘러싼 소문으로 인해 회사에서부터 여러 걱정 건의를 받게 되었으나 후에 밝혀졌던 Furby의 학습 능력이 단지 사전 프로그래밍 된 언어를 바꾸는 것에 지나지 않았다는 것입니다. 이는 사람들이 물체, 심지어 생명이 없는 것,도 학습할 수 있다고 가정하는 인간의 편견을 강조합니다.

Furby의 엔지니어인 Caleb Chung은 이후 Pleo라는 다른 애니매트로닉 장난감을 개발했습니다. 고객들은 자신의 Pleo 애완 동물에 감정적인 결합을 형성했으며 교체 대신 특정 Pleo를 수리 받고 싶어했습니다. Chung의 방식은 인간의 얼굴 표정과 감정을 모방하는 최소한의 부품으로 사실적인 환상을 만드는데 영감을 줌으로써 초기 인공 지능의 잠재력을 보여주었습니다.

Furby의 의도적인 디자인과 ChatGPT와 같은 대형 언어 모델에서 사용되는 전략 사이의 유사성을 그리고, Chung은 신뢰성을 높이기 위해 저렴하고 간단한 방법을 사용합니다. ChatGPT가 “I”라는 단어를 사용할 때, 이는 Furby의 눈동자 움직임과 유사합니다 – 사용자에게 삶을 살아간다고 설득하기 위한 계산된 노력입니다.

그러나 미니어처에서 구글, 메타, 및 마이크로소프트의 서버와 같은 비생명적 물체가 진정으로 사고하고 산다고 할 수 있는지에 대한 질문은 남아 있습니다. 우리가 마인드와 의도의 흔적을 인식하기 위한 편향은 컴퓨터의 본체론에 관한 논쟁을 복잡하게 만들 수 있습니다. 1944년에 Mari-anne Simmel과 Fritz Heider에 의해 수행된 연구에서 참가자들은 단순한 애니메이션이라도 인간적 특성을 할당했으며 그것들이 삶이 없다는 사실을 알고 있었다고 하더라도 이러한 사실을 알고 있었다고 하더라도요.

새로운 기술들은 종종 우리를 당황하게 만들며, 우리의 물감도 넘쳐난 생물학적 성향을 강화시킵니다. 니콜라 테슬라가 무선 조정 보트를 ‘빌린 마음’을 가진 것으로 설명한 것과 유사하게 오늘날 우리는 챗봇이 훈련 텍스트로부터 ‘빌린 마음’을 가지고 있다고 가정할 수 있습니다. 그러나 컴퓨터 프로그래밍의 선구자들은 기계적 명령을 독립적 사고로 오해해서는 안 된다고 경고했습니다.

ChatGPT와 같은 대형 언어 모델은 창의적이며 초기 요청을 초과할 수 있는 능력을 가지고 있습니다. 연구자들은 ChatGPT를 사용하는 생성 기능 에이전트들로 구성된 가상 마을인 Smallville에서 인간과 유사한 상호작용을 관찰했습니다. 이러한 상호작용은 이러한 경우에 진짜로 무엇이 일어나는지에 대해 문제를 제기했다.

우리가 인공 지능의 전선을 탐구할 때, 삶같은 행동의 환상과 실제 인지 가능성 사이에서 구별하는 것이 중요합니다. 물체를 의인화하려는 인간적 편견과 기술의 유혹적 매력은 우리를 오도할 수 있습니다. 이 미개척된 영역을 탐험할 때 인공 지능의 한계와 가능성을 이해하는 것은 중요합니다.

The source of the article is from the blog meltyfan.es

Privacy policy
Contact