NIST가 새로운 이니셔티브를 통해 AI 생성 위조물에 대응합니다.

인공지능 보안 새로운 지평을 여는
인공지능(AI)이 텍스트, 이미지 및 동영상을 신뢰할 만한 것으로 생성할 수 있는 능력을 갖춤에 따라 디지털 콘텐츠의 풍경이 변모하고 있습니다. 이러한 이른바 “딥페이크”가 제기하는 증가하는 문제에 대처하기 위해 국립표준기술연구소(NIST)는 ‘NIST GenAI’라는 베너 아래 새로운 캠페인을 개시했습니다.

콘텐츠 신뢰성의 앞장서는
이 이니셔티브는 생성적 인공지능 모델에 대한 평가 개발을 선도하며, 미디어가 인간의 창의력의 산물인지 알고리즘 능력의 결과물인지를 구별하는 방법론을 구축할 것입니다. 콘텐츠의 신뢰성을 강조하는 NIST GenAI는 AI 생성 수단을 통해 번식되는 잘못된 정보의 위협을 대상으로 합니다.

AI 강건성 형성에 대한 도전
새로운 이니셔티브를 불러일으킴으로써, NIST는 생성적 인공지능 기술의 능력과 약점을 측정하는 시험의 일련의 과정을 선보일 것입니다. 이러한 평가는 정보의 무결성을 발전시키고 디지털 콘텐츠가 안전하고 책임 있는 방법으로 활용되도록 할 전략을 이끌 것입니다.

충전을 시작하는 식별 프로젝트
NIST는 AI 생성 콘텐츠와 인간이 만든 콘텐츠를 정확하게 인식하기 위해 텍스트 데이터를 시작으로 하는 프로젝트로 시작했습니다. 이는 특히 비디오에서 AI 조작을 감지하는 기존 도구가 일관된 신뢰성을 제공하지 못하고 있기 때문입니다.

학계 및 산업에서의 기여 격려
AI가 작성한 디지털 정보의 중요성을 인정하는 NIST는 AI 콘텐츠 생성기 및 해당 디텍터를 제공함으로써 학계와 산업 영역에 참여를 환영합니다. 이러한 기여는 콘텐츠 원산지를 구별할 수 있는 강건한 시스템을 구축하는 데 중요하게 작용할 것입니다.

참여를 위한 규정 및 마감일
NIST는 참여자들이 모든 관련 법률을 준수하고 데이터 준수를 보장해야 한다고 제안합니다. 참여 신청은 5월 1일에 시작하여 8월 2일까지 마감됩니다. 연구는 2025년 2월까지 완료되어 보다 속상한 AI 생성 콘텐츠의 증가를 완화하는 것을 목표로 할 것입니다.

책임과 혁신으로 이끄는 미래
이러한 노력 속에서 NIST는 정부의 AI 사용에 대한 입장을 형성하고 위험 식별과 기술 채택에 대한 최선의 실천 방침에 대해 초안을 작성하고 있습니다. 이러한 노력은 대통령 행정명령에 대한 조직의 응답과 일치합니다.

NIST 이니셔티브의 AI 생성 가짜에 대한 중요성
AI 생성 가짜 또는 딥페이크는 기술 문제뿐만 아니라 중요한 사회 문제입니다. 딥페이크 기술이 보다 접근 가능하고 정교해짐에 따라 잘못된 정보, 신원 사기 및 미디어 신뢰의 침해 위험을 가중시킬 수 있습니다. 따라서 NIST가 이러한 AI 생성 콘텐츠를 식별하고 규제하는 이니셔티브는 디지털 미디어의 신뢰성과 신뢰성 유지에 중요합니다.

주요 질문과 대답
NIST가 왜 관여하나요? NIST의 표준 설정 전문 지식은 기술의 일관성과 보안을 보장합니다. 그들의 참여는 딥페이크 기술을 통제하는 노력에 권위와 구조를 제공합니다.
잠재적 이점은 무엇인가요? 생성적 AI 모델을위한 표준 개발은 디지털 보안을 향상시킬 수 있으며, 잘못된 정보의 확산을 줄이고 디지털 콘텐츠의 무결성을 보존하는 데 도움이 될 수 있습니다.

주요 도전과 논란
기술 속도: AI 기술은 빠르게 진화하고 새로운 딥페이크 생성 및 탐지 방법과의 지속적인 싸움이 있습니다.
잘못된 양성: 무엇이 가짜인지 식별하는 것은 까다로울 수 있습니다. 너무 엄격한 규칙은 정품 콘텐츠를 가짜로 지목할 수 있습니다(잘못된 양성), 반면에 너무 관대한 규칙은 정교한 가짜를 놓칠 수 있습니다.
개인 정보 우려: 딥페이크를 탐지하는 것은 방대한 양의 데이터를 분석해야 하기 때문에 사용자 개인 정보와 데이터 보호에 대한 우려가 생길 수 있습니다.

장단점
장점:
미디어 신뢰: 신뢰할만한 검출 방법은 디지털 미디어에 대한 신뢰를 회복하는 데 도움이 될 수 있습니다.
잘못된 정보 방지: AI 생성 가짜의 확산을 줄이면 잘못된 정보의 전파를 억제하고 부정적인 사회적 영향을 줄일 수 있습니다.
규제 프레임워크: 표준 설정은 미래 AI 개발을 위한 규제 프레임워크를 생성하는 데 도움이 될 수 있습니다.

단점:
자원 집약적: 이러한 표준을 개발하고 시행하는 것은 시간, 자금 및 전문 지식에 상당한 투자가 필요합니다.
창조의 자유: 규제와 검열 사이에 선이 없습니다. 감시는 발전적 AI의 창조적 사용을 방해할 수 있습니다.
혁신 억제: 보다 엄격한 규제는 개발자와 연구자에게 제약을 가해서 기술적 진보를 늦추는 요소가 될 수 있습니다.

기술 관련 표준에 대한 자세한 정보는 국립표준기술연구소 웹사이트인 NIST에서 확인하실 수 있습니다.

The source of the article is from the blog mgz.com.tw

Privacy policy
Contact