투자자들, 대형 기술 기업의 AI 전개에 투명성 요구

주주들 AI 전략 및 위험 공개 요구

Netflix, Meta 및 알파벳 등 빅테크 기업들은 주주로부터 인공지능(AI) 사용에 대한 전략 및 감독 지침을 공개할 것을 촉구 받고 있습니다. Netflix는 최근 SEC에 보고서에서 AI와 관련된 위험을 승인했으며 이는 책임 추세로 발전하고 있는 산업에 대한 반영입니다.

빅테크 기업의 AI 사용 정책 및 감독 요구

주요 주주들은 대형 기술 기업들이 AI 사용에 대한 투명한 정책 및 감독 프로토콜을 얻는 데 주력하고 있습니다. Morningstar Sustainalytics의 Jackie Cook는 작년 동안 수많은 기업에 유별난 AI 기술의 신속한 통합이 있었으며 이에 따라 주주들이 기업 이사회에게 AI 관련 위험 관리 방법에 대해 설명을 요구하기 시작했다고 지적합니다.

다가오는 주주총회에서 다뤄질 4가지 주요 AI 결의안

다가오는 주주총회에서는 AI 관련 결의안이 검토될 예정입니다. 먼저, 알파벳 주주들은 AI에 의한 잘못된 정보 전파 위험을 평가하고 완화 전략을 제공하라고 이사회에 요구하고 있습니다. 둘째로, Google로부터 AI가 타깃 광고에서의 인권 문제에 미치는 영향에 대한 투명성을 요구하며 이 문제는 메타(Meta) 투자자들 사이에서도 큰 지지를 얻고 있습니다. 세 번째로, Chipotle Mexican Grill의 투자자들은 AI 및 자동화로 인한 직원 영향에 대한 평가를 요청했습니다. 마지막으로 Netflix 주주들은 AI 윤리 지침의 설명을 요청했는데, 이는 편향된 채용 방식, 자동화에 따른 직원 감축, 개인 정보 침해, 악용 및 딥페이크 콘텐츠 제작의 위험 등에 대해 우려하고 있습니다.

한편, 유럽 의회는 잠재적 위험 수준을 기준으로 AI 시스템을 분류하는 최초의 인공지능법을 승인하며 입장을 표명했습니다.

Netflix, SEC 보고서에서 AI를 경쟁 위험으로 인식

Netflix는 미국 증권거래위원회에 제출한 연례 보고서에서 AI의 경쟁 위험 요인으로 제시했으며, 저작권 및 지적 재산 침해에 대한 우려를 강조했습니다. Warner Bros. Discovery와 같은 다른 엔터테인먼트 거물들도 AI 사용에 대한 상세한 보고서를 요구하는 주주 제안을 받았지만 이러한 제안은 채택되지 않았습니다.

빅테크, 책임 있는 AI 사용을 위한 압박에 직면

Sustainalytics의 Ignacio Garcia Giner에 따르면, Netflix와 Warner를 포함한 대규모 엔터테인먼트 기업들은 윤리적 AI 사용의 부족한 거버넌스와 감독에 대한 비판을 받고 있습니다. 주주들은 책임 있는 기업 행동을 촉진하기 위해 AI 사용 보고서를 지지하도록 권고받았으며, Bloomberg Law는 S&P 500개사 중 40% 이상이 최신 연례 보고서에서 AI를 언급했으므로 기업들은 이해관계자들에게 효과적으로 자사의 AI 정책을 전달해야 한다는 필요성을 강조하고 있습니다.

AI 투명성과 윤리적 고려에 대한 투자자의 증대된 검토

빅테크가 AI 배포에 대한 투명성을 요구하는 것은 투자자들이 재무 성과뿐만 아니라 기술 혁신의 윤리적 영향에도 관심을 두고 있는 넓은 추세의 일환입니다. AI가 일상적인 서비스에 길들여지면서 이해관계자들은 기업이 AI 결정 방식과 이러한 결정이 가질 수 있는 잠재적 사회적 영향에 대한 더 많은 명료성을 요구하고 있습니다.

중요한 질문과 대답

1. 왜 투자자들이 빅테크 기업들로부터 AI에 대한 투명성을 요구할까요?
투자자들은 AI 시스템이 중요한 윤리적, 법적 및 금전적 위험을 초래할 수 있기 때문에 투자기업들이 이러한 위험을 어떻게 관리하는지 이해함으로써, 투자 기업들의 잠재적인 장기 지속가능성 및 수익성에 대해 더 나은 판단을 내릴 수 있습니다.

2. 빅테크 기업들의 AI 투명성과 관련된 어떤 문제점이 있을까요?
AI 시스템의 복잡성, 알고리즘의 소유권, 너무 많은 정보를 공개하는 것으로 인해 발생할 수 있는 잠재적 경쟁 문제, 데이터 개인 정보 보호 및 AI의 윤리적 사용에 관한 동적이고 빠르게 변화하는 규제 환경과 같은 문제가 있습니다.

주요 도전과 논란
– 지적 재산 권 보호와 투명성 필요성의 균형 맞추기
– 취업이나 사법 시스템과 같이 민감한 분야에서의 AI의 비편향적이고 윤리적인 사용 보장
– 자동화로 인한 직업 요모감 가능성 다루기
– AI 시스템이 의지하는 데이터 수집과 사용 지배하기

장단점
장점: 높은 투명성은 더 나은 윤리적 AI 관행, 높은 소비자 신뢰 및 잠재적으로 더 큰 규제 준수로 이어질 수 있습니다. 명확한 지침과 감독은 또한 AI 배포의 악용과 부정적인 사회적 영향 방지에 도움이 될 수 있습니다.
단점: 너무 많은 정보 공개는 기업들의 경쟁 우위를 해치거나, 혁신을 억제하거나, 공개된 정보의 오용으로 이어질 수 있습니다. 다양한 투자자 요구를 준수하는 것 또한 비용이 많이 들고 복잡할 수 있습니다.

유럽연합의 AI 거버넌스에 대한 조치는 다른 지역에 전례를 제시할 수 있는 중요한 단계이며 책임 있는 AI 생태계 조성에 도움이 되는 장점으로 볼 수 있습니다. 반면, AI를 경쟁 위험으로 인식하는 Netflix와 같은 기업들은 혁신과 규제 간 복잡한 링크에 직면해야 하며, 이는 단점으로 간주될 수 있습니다.

관련 링크
인공지능과 관련된 자세한 정보는 아래 링크를 통해 확인할 수 있습니다:
Google AI
Meta AI
Netflix Research

이 링크들은 각 회사가 현재 제품 및 연구 프로젝트에서 AI를 어떻게 다루고 있는지에 대한 통찰을 제공할 수 있습니다. 이 페이지들 자체가 여기서 논의된 투명성과 윤리적인 우려를 반드시 다루지는 않지만, 회사의 AI 노력을 엿볼 수 있는 창구를 제공합니다.

The source of the article is from the blog lisboatv.pt

Privacy policy
Contact