This AI Habit Could Cost Tesla Millions — Find Out Why a Top U.S. Official is Ready to Take Action

이 AI 습관이 테슬라에 수백만 달러의 비용을 초래할 수 있습니다 — 왜 미국 고위 관리가 조치를 취할 준비가 되어 있는지 알아보세요

Start

AI 편향이 대규모 정상 회담에서 논란을 일으키다

최근 포춘 가장 강력한 여성 정상 회담에서 미국 특허청장인 카시 비달이 테슬라의 AI 기술을 포용성 부족으로 열정적으로 비판했습니다. AI 개발에 깊은 역사를 가진 저명한 엔지니어인 비달은 자신의 테슬라 차량에서의 AI에 대한 개인적인 관찰을 공유했습니다.

체계적 편향?

비달에 따르면, 그녀의 테슬라 AI는 모든 보행자를 키가 크고 백인 남성으로 잘못 식별한다고 합니다. 이는 그녀가 우려한다고 느끼는 문제이며 AI 시스템 내의 더 광범위한 문제를 나타낸다고 전했습니다. 직접 인용되지는 않았으나, 그녀는 다양한 개인을 올바르게 인식하는 AI의 결함을 강조하며 자신의 불만을 공유했습니다.

테슬라에 대한 잠재적인 재무적 파급 효과

비달은 이러한 문제에 대해 강한 입장을 취하며 편향이 수정되지 않는 한 테슬라에 대한 대규모 재정 투자를 철회할 의향이 있음을 나타냈습니다. 이 상황은 AI가 고정관념을 perpetuate하는 데 있어 중요한 대화를 강조하며, 특히 테슬라의 자율주행차와 같은 주요 기술에서 이러한 편향의 실제 세계에 미치는 잠재적 영향을 부각합니다.

공정한 정책 옹호

정상 회담에서 비달은 공평한 AI 정책에 대한 비전을 논의했습니다. 그녀는 정책 형성에 있어 다양한 목소리의 중요성을 강조하며 대기업의 부당한 영향을 저항할 필요성을 언급했습니다. 비달은 AI 개발이 모두에게 공정하고 책임감 있게 이루어져야 한다고 주장합니다.

집단 행동을 촉구하다

그녀는 AI 정책 결정에 대한 대중의 참여를 장려하며, 소기업과 개인이 결정에 영향을 미치는 역할을 강조했습니다. 비달의 행동 촉구는 모든 사람이 AI의 미래 방향에 이해당사자임을 강조하며, 사람들이 정책 프레임워크 형성에 적극적으로 참여할 것을 촉구했습니다.

AI 포용성을 향상하고 편향을 줄이기 위한 전략

포춘 가장 강력한 여성 정상 회담에서 카시 비달이 테슬라의 AI 기술에 있어 중대한 편향 문제를 강조한 것에 비추어 볼 때, AI 편향을 해결하는 것은 기술의 미래에 매우 중요합니다. 아래는 포용성을 촉진하고 AI 시스템의 편향을 줄이기 위해 헌신하는 개인과 조직을 안내할 수 있는 몇 가지 팁과 유용한 정보입니다.

AI 편향 이해하기

AI 편향을 줄이기 위한 첫 번째 단계는 무엇인지 이해하는 것입니다. AI 시스템은 대규모 데이터 세트에서 학습하는데, 이러한 데이터 세트가 편향된 정보를 포함하고 있다면 AI는 이러한 편향을 지속할 수 있습니다. 흥미로운 사실은 비균형 데이터 세트에서 편향이 발생할 수 있다는 것입니다. 데이터 세트에 대부분 키가 크고 백인 남성의 이미지가 포함되어 있다면, 이를 기반으로 훈련된 AI는 다른 외모의 사람을 인식하는 데 어려움을 겪을 수 있습니다.

AI 편향을 줄이기 위한 팁

1. 다양한 데이터 세트: AI 시스템의 훈련 데이터 세트가 인구를 대표하도록 해야 합니다. 이는 다양한 연령, 성별, 인종, 체형이 데이터에 포함되어야 함을 의미합니다.

2. 정기 감사: AI 시스템의 정기 감사 수행하여 편향을 식별하고 해결합니다. 이는 모든 인구 집단에 대해 동일하게 잘 작동하는지 확인하기 위해 다양한 시나리오에서 AI를 테스트하는 것을 포함합니다.

3. 포괄적인 디자인 팀: AI 기술을 개발하기 위해 다양한 팀을 구성합니다. 서로 다른 관점은 개발 과정 초기에 잠재적 편향을 식별하는 데 도움을 줄 수 있습니다.

4. 피드백 루프: 사용자가 부정확성이나 편향을 보고할 수 있는 강력한 피드백 루프를 구현하여 AI 시스템의 지속적인 개선을 가능하게 합니다.

개인을 위한 생활 팁

AI와의 상호작용: AI 기술을 사용할 때 가능한 피드백을 제공하며, 특히 편향이 발생하는 경우에 그렇습니다. 많은 기업이 사용자 보고를 통해 시스템을 향상시킵니다.

정보 유지: AI 윤리 및 공정성에 대해 작업하는 전문가 및 조직의 논의와 업데이트를 팔로우하십시오. AI 편향의 현황과 이를 완화하기 위한 노력에 대해 아는 것이 도움이 됩니다.

AI 포용성에 관한 흥미로운 사실

오픈 소스 노력: 일부 조직은 AI 시스템의 편향을 감지하고 수정하는 데 도움이 되는 오픈 소스 데이터 세트 및 도구를 만들었습니다. 이러한 자원은 더 공정한 AI 기술을 만들려는 개발자에게 매우 유용합니다.

법규 동향: 전 세계 정부는 AI 편향을 인식하고 공정성과 책임을 촉진하는 것에 중점을 두고 규제를 수립하기 시작하고 있습니다.

운동에 동참하세요

AI 기술이 일상생활에 미치는 영향을 고려할 때, 개인이 AI 정책 및 윤리에 대한 논의에 참여하는 것이 중요합니다. 개발자, 정책 입안자 또는 소비자 중 누구든 그들의 의견은 소중합니다. 모두가 더 포괄적이고 편향 없는 결과로 나아가는 AI를 추진하는 데 역할을 해야 합니다.

이러한 전략을 활용하고 적극적인 조치를 취함으로써 개인과 조직 모두가 모든 사회 구성원에게 더 잘 봉사하는 AI 시스템을 만드는 데 기여할 수 있습니다. AI 및 관련 주제에 대한 더 많은 정보를 얻으려면 IBM 또는 MIT와 같은 자원을 방문할 수 있습니다.

The source of the article is from the blog mgz.com.tw

Privacy policy
Contact

Don't Miss

The QHY PoleMaster: A Game-Changer for Skywatcher EQ-6 and AZ-EQ-6 Mount Users

QHY 폴마스터: 스카이워처 EQ-6 및 AZ-EQ-6 마운트 사용자들을 위한 게임 체인저

천체사진의 세계에서 망원경의 정밀한 정렬은 천체 현상의 멋진 이미지를 포착하는
Title: San Jose Uses AI Technology to Address Homelessness Crisis

샌프란시스코의 기술을 활용한 사회복지 혁신

샌프란시스코 시는 최근, 장거리 이주자들을 식별하기 위해 인공지능 기술을 활용하는