NIST가 새로운 이니셔티브를 통해 AI로 생성된 가짜뉴스에 대응합니다.

인공 지능 보안의 새로운 환경 구축
인공 지능(AI)가 신흥하는 텍스트, 이미지 및 비디오를 신뢰할 만큼 생성할 수 있는 능력을 갖춤에 따라 디지털 콘텐츠의 환경이 변화하고 있습니다. 이러한 “딥페이크”로 불리는 문제에 대응하기 위해 미국 국립표준기술연구소(NIST)는 ‘NIST GenAI’라는 이름으로 새로운 캠페인을 개시했습니다.

콘텐츠 진실성의 선봉대
이번 프로젝트는 생성적 AI 모델 평가의 발전을 주도하여 미디어가 인간의 독창적 작품인지 아니면 알고리즘 능력의 결과물인지 구별하는 방법론을 구축할 예정입니다. 콘텐츠의 진위에 초점을 맞춘 NIST GenAI는 AI 생성 수단을 통해 확산되는 잘못된 정보의 위협을 대상으로 하고 있습니다.

AI 강건성 형성을 위한 도전
이번 새로운 프로젝트를 통해 NIST는 생성적인 AI 기술의 능력과 취약점을 측정하는 일련의 공모전을 개최할 예정입니다. 이러한 평가는 정보의 무결성을 증진시키고, 디지털 콘텐츠가 안전하고 책임을 갖고 활용되도록 이끌 전략을 발전시킬 것으로 예상됩니다.

AI 대 인식 프로젝트가 출발을 알립니다
NIST는 인공지능 대 인간 창작 콘텐츠를 정확하게 인식하는 프로젝트로 시작합니다. 특히 동영상에서의 AI 조작을 탐지하는 도구가 일관성 있게 신뢰할만한 것으로 나타나지 않는다는 사실에 대응한 것입니다.

학계 및 산업부문으로부터의 기여 장려
AI로 조작된 잘못된 정보의 심각성을 인식하여, NIST는 학계와 산업계로 AI 콘텐츠 생성기와 해당 탐지기를 제공하여 참여를 환영합니다. 이러한 기여는 콘텐츠의 출처를 구별할 수 있는 견고한 시스템을 구축하는 데 중요합니다.

참여를 위한 규정 및 마감일
NIST는 기여자들이 모든 관련 법률을 준수하고 데이터를 보호해야 한다고 제안합니다. 참여 제안은 5월 1일부터 시작되며, 마감일은 8월 2일로 정해져 있습니다. 연구는 2025년 2월에 마무리를 지으며, 올바르지 않은 AI 생성 콘텐츠 증가를 완화시키는 것을 목표로 하고 있습니다.

책임과 혁신이 안내하는 미래 초안
이러한 노력 속에서 NIST는 AI 사용에 대한 정부의 입장을 기르는 데 기여하는 것 뿐 아니라, 위험 식별과 기술 채택에 관한 초안을 통해 정부의 입장을 정립하고 있습니다. 이러한 노력은 대통령 행정명령에 의해 요구된 더 높은 AI 투명성과 규제에 대한 조직의 대답과 부합합니다.

NIST 프로젝트의 AI 생성 딥페이크에 대한 중요성
AI 생성 딥페이크는 기술적인 문제뿐만 아니라 사회적으로 중요한 문제입니다. 딥페이크 기술이 접근성이 커지고 정교해짐에 따라 잘못된 정보, 신원 사기 및 미디어에 대한 신뢰 저하의 위험을 야기할 수 있습니다. NIST가 이러한 AI 생성 콘텐츠를 식별하고 규제하는 이니셔티브는 디지털 미디어의 신뢰성과 진실성을 유지하는 데 중요합니다.

The source of the article is from the blog lanoticiadigital.com.ar

Privacy policy
Contact