이전 및 현직 직원이 AI의 위험을 강조하고 더 많은 기업 감독을 촉구합니다.

산업 전문가들이 기계 학습의 함정에 대해 경고합니다

이전과 현재 뛰어난 AI 기관인 OpenAI, 구글의 DeepMind, 그리고 Anthropic에서 일한 사람들이 인공 지능과 관련된 위험에 대해 엄중한 경고를 발표했습니다. 인공 지능의 발전과 관련된 상당한 위험을 언급하면서, 기술 기업들이 이러한 도구들을 모니터링하고 관리하는 데 더 많은 투자를 하도록 호소하며, 워싱턴 포스트가 강조한 우려를 표명했습니다.

이들 직원들은 AI가 인류를 위해 놀라운 혜택을 가져다 줄 수 있다고 옹호하지만, 불평등의 증가, 잘못된 정보의 확산, 자율 시스템의 잠재적인 과잉 능력과 같은 중요한 위험에 대해 인정하고, 그 결과로 인류에게 심각한 결과를 초래할 수 있는 것을 알고 있습니다.

기업들은 위험을 승인하지만, 감시가 충분하지 않습니다

전문가들은 기업들이 이러한 위험을 인정하고도 그 위험에 대해 대응하는 노력이 미흡하다고 불만을 표현했습니다. 그들이 보기에, AI 기업들은 경제적 이해와 관련된 가치의 영향을 받아 효과적인 감시를 방해할 수 있을 것이라고 보며, 이로 인해 경제적 이익이 안전과 무결성을 초월하여 회사를 갈등에 빠뜨릴 수 있다고 말합니다.

책임 있는 AI 개발을 보장하기 위한 원칙 제정을 요구합니다

이들 직원들은 AI 기업들이 채택해야 할 4가지 기본 원칙을 주장합니다. 먼저, 회사가 직원들의 비판에 침묵을 요구하거나 이를 경제적 이익을 위해 억압하지 말아야 한다고 제안합니다. 다음으로, 위험을 관리하고 중립적인 기관에 정보를 전달할 수 있는 익명의 신고 체계를 설치해야 한다고 합니다.

세 번째는 비밀 개념을 해치지 않는 열린 비판이 가능한 문화를 강화할 것을 추천하는 것이며, 마지막으로, 회사가 직원이 정보를 공개할 때, 위험을 완화하기 위한 특정한 엄격한 조건 하에서 징계 조치를 삼가야 한다는 것을 명시합니다.

이러한 제안을 인정하여 OpenAI 대변인은 CNBC에 그들의 글로벌 정부, 시민 사회 및 다양한 공동체와의 지속적인 협력, 위험을 익명으로 보고하기 위한 절차, 그리고 최근에 구성된 안전 위원회에 대해 밝혔습니다.

주요 질문과 답변:

1. AI 개발과 관련된 위험은 무엇입니까?

위험으로는 불평등의 증가, 잘못된 정보의 확산, 자율 AI 시스템의 과거, 프라이버시 침해, 강력한 AI 행동의 뜻밖의 결과나 일자리 이탈과 같은 인류에게 심각한 결과가 포함됩니다.

2. 기업이 적절한 감시를 우선시하지 않을 수 있는 이유는 무엇입니까?

AI 기업은 감시 및 관리를 우선시하기보다는 재정적 인센티브와 기술적 발전을 중시할 수 있습니다. 경제적 이익이 안전 및 윤리적 AI 개발에 대한 투자를 무시하면서 감시에 충분한 초점을 두지 못할 수 있습니다.

3. AI 전문가들이 제안하는 4가지 원칙은 무엇입니까?

이 원칙은 (a) 비판에 대해 입막음을 두지 않고, (b) 위험을 위한 익명의 신고 체계를 가지고 있으며, (c) 비밀 개념을 유지하면서 비판이 가능한 문화, 그리고 (d) 고발자를 보호하는 것이 포함됩니다.

주요 도전과 논란:

혁신과 안전 사이의 균형: 고급 AI 개발 경쟁은 안전 규정들을 무시할 수 있어, 책임 있는 AI 개발을 보장하는 데 어려움이 따릅니다.

AI의 윤리적 디자인: 어떤 것이 윤리적 AI로 간주되는지, 가이드라인을 어떻게 실행할지, 책임 있는 개발의 기준을 누가 결정할지에 관한 논란이 있습니다. 이는 편견과 공정함 문제도 포함됩니다.

준수와 규제: AI를 효과적으로 규제하는 방법, 사회에 미치는 영향을 관리하기 위해 어떤 법과 기준이 필요한지에 대한 문제가 있습니다.

투명성: 기업들은 잠재적으로 정보를 공유하면서도 자사의 정보, 경쟁 우위, 또는 사용자 개인 정보를 희생하지 않고 AI 작업에 대해 투명해지기 위한 어려움이 있을 수 있습니다.

장단점:

장점:

– 책임 있는 AI 개발은 사회의 이익을 위해 행동하는 시스템을 만들 수 있으며, 효율성을 향상시키고 의료 및 교육 분야와 같이 다양한 분야를 발전시킬 수 있습니다.
– 감시 강화는 AI 남용 및 부정적 사회적 영향의 위험을 감소시키고 공중의 AI 기술에 대한 신뢰를 높일 수 있습니다.

단점:

– 강화된 감시는 혁신을 제한하고 유익한 AI 기술의 발전을 늦출 수 있어, 기업을 경쟁 우위에 놓을 수 있습니다.
– 제안된 원칙을 시행하는 데 상당한 자원이 필요할 수 있으며, 사업 모델을 변경하고 회사 내 이해 관계자들로부터 저항을 받을 수 있습니다.

인공 지능 및 그 영향에 대한 일반적인 정보를 더 알고 싶다면, OpenAI(OpenAI)나 DeepMind(DeepMind)과 같은 AI 연구 및 정책에 초점을 맞춘 기관의 웹사이트를 방문할 수 있습니다. 웹사이트가 정확한지 확인하기 위해 URL을 방문하기 전에 확인하는 것이 중요합니다. 잘못된 URL은 다른, 신뢰할 수 없는 소스로 이어질 수 있습니다.

[동영상 삽입]

The source of the article is from the blog anexartiti.gr

Privacy policy
Contact