인공지능 전문가가 자율주행 기술 개발 중 잠재적 위험에 대해 경고합니다

Anthropic의 공동 창업자 인 Dario Amodei가 AI 개발에 대한 우려를 공유합니다

속편으로 전진하는 분야에서 Anthropic의 공동 창업자이자 전 OpenAI 구성원인 Dario Amodei는 인공 지능(AI)의 미래에 대한 불안을 표명했습니다. 그의 우려는 다음 해에 AI가 자체 복제 및 자율적이 될 가능성에서 비롯됩니다. 이 우려는 AI의 능력뿐만 아니라 잠재적인 남용에 대한 것입니다.

터미네이터와 유사한 AI 현실

상황은 로봇이 인류와 전쟁을 벌이는 “터미네이터” 영화 시리즈를 떠올리게 할 수 있습니다. 그러나 Amodei는 그러한 강력하고 자급자족적인 AI가 곧 현실이 될 수 있다고 경고합니다. 철학적 불일치로 OpenAI를 떠난 후 Amodei는 윤리적이고 안전한 언어 모델을 만들기 위해 Antrhopic을 설립하기로 결심했습니다. 이를 위해 그는 인공 지능의 잠재적 위험을 평가하기 위해 AI 안전 수준(ASL)을 개발했고, 이로써 Anthropic의 챗봇인 Claude에 명확한 보안 계층을 부여했습니다.

더 높은 수준의 AI 안전으로 나아가기

현재 ASL 2로 분류된 AI 모델은 중간 위험과 관련이 있습니다. 그러나 Amodei의 비전은 2025년까지 ASL 4로 전환될 수 있다는 것을 시사합니다. 이 수준에서 AI는 사람들과 확실히 상호 작용하고 자율적으로 운영할 수 있는 능력을 가지게 될 것으로 예상됩니다. Amodei에게는 기술 자체가 아니라 그 기술이 어떻게 악용될 수 있는지가 더 큰 우려입니다.

독재 국가들의 손에 있는 AI

구체적으로 그는 중국, 러시아 또는 북한과 같은 독재 국가나 독재정부가 AI를 채택하는 것을 우려하며, 그곳에서 군사 능력과 지역적 우위를 강조할 수 있다고 걱정합니다. AI 커뮤니티 내의 윤리적 입장과 집단적 의식이 다양하기 때문에 이러한 발전에 대한 통일된 접근에 대한 우려도 제기되고 있습니다. Amodei는 자신의 우려가 부당하다는 것을 희망하지만, AI의 궤적과 세계 사회에 미치는 영향에 관한 이야기는 시간이 말할 것입니다.

Privacy policy
Contact