신기술이 세계를 변화시키는 인공지능(AI)의 부상

사이버 위협이 지속적으로 진화하는 세계에서는 기관들이 사이버 보안 방어를 강화하기 위해 고급 기술을 채택하고 적응해야 합니다. 인공지능(AI)의 부상은 이러한 환경에서 기회와 도전을 제시했습니다. AI는 사이버 보안 분야를 혁신할 수 있는 잠재력을 갖추고 있지만 악의를 가진 주체들에 의해 악용 될 수도 있습니다.

심지어 지문 오류와 맞춤법 오류로 인해 쉽게 식별되던 사기 이메일도 AI의 도움으로 해커들이 전문적이고 설득력 있는 메시지를 만들어낼 수 있습니다. 지난 달에만 홍콩의 은행 종업원이 정교한 딥페이크 AI 사기에 휘말려 3770만 달러의 피해를 입었습니다. 해커들은 비디오 회의 중 남자의 동료의 AI 버전을 만들어 그를 속여 이체를 하게 했습니다.

디프이크 기술은 비디오 통화에서 개인을 흉내내는 데서 그치지 않습니다. 기록된 사례에 따르면, 미국 여성이 시어머니인 것처럼 보이는 전화를 받았으나, 나중에 그것이 자신의 시어머니 음성의 AI 클론을 사용한 사기꾼임이 밝혀졌습니다. 이런 사건들은 AI로 생성된 “딥페이크”의 잠재적인 위험성을 강조합니다.

AI를 활용한 딥페이크가 미래 위협을 제시할 수 있는 가운데, 기관들은 이미 AI 기반 도구를 보안 방어에 활용하고 있습니다. 예를 들어 호주 국립 은행은 매달 약 5000만 건의 해킹 시도에 직면하고 있습니다. 이러한 시도의 대다수는 자동화되고 비교적 사소하지만, 성공적인 침입은 심각한 결과를 초래할 수 있습니다. 해커가 기업 데이터에 액세스한 후에는 평균적으로 72분이 소요됩니다. 이는 기관들이 잠재적인 침입을 신속히 감지하고 대응해야 함을 강조합니다.

AI 도구는 보안 분석가들의 능력을 확대하는 데 중요한 역할을 합니다. 이 도구들은 엄청난 양의 로그 데이터를 분석하여 이상 현상과 잠재적 위협을 식별하는 데 도움을 줍니다. AI를 활용함으로써, 기관들은 사이버 위협에 더 효과적으로 대응하고 중대한 데이터 침해와 랜섬웨어 공격의 위험을 줄일 수 있습니다.

그러나 AI는 방어자들을 위한 방패일 뿐만 아니라, 공격자들에게 강력한 무기가 될 수도 있습니다. 악의를 품은 집단들은 AI 기반 사기 시도를 증가시키며, 음성 합성과 딥페이크와 같은 기술을 이용하여 피해자를 속이고 보안 조치를 뚫고 통과하는 데 활용하고 있습니다. 방어자로서, 기관들은 이러한 위협을 효과적으로 대응하기 위해 AI의 모든 잠재력을 활용해야 합니다.

AI 도구 외에도 기관들은 직원들 사이에 사이버 보안 인식을 촉진해야 합니다. 긴급하거나 의심스런 요청을 피하고 메시지의 진위를 확인하는 것과 같은 기본 실용적인 팁은 AI 주도 공격을 예방하는 데 큰 도움이 될 수 있습니다. 직원들은 비판적 사고를 발휘하고 들어오는 모든 통신을 맹목적으로 믿지 않아야 합니다.

AI 주도 해킹과 연관된 위험은 현실적인 것이지만, 동시에 “적대적 기계 학습(Adversarial Machine Learning)” 분야도 성장하고 있습니다. 기관들은 윤리적인 문제와 AI 시스템 내의 잠재적 편향을 다루어 안전을 보장해야 합니다. AI 위협으로부터 자산을 보호하려면 기술적 솔루션과 인간의 경계심을 결합한 다각적 접근법이 필요합니다.

사이버 보안 환경이 지속적으로 변화함에 따라, 기관들은 사이버 위협에 대항하는 지속적인 전투에서 AI를 값진 도구로 받아들여야 합니다. 위험성은 존재하지만, 올바르게 배포될 때 AI는 민감한 데이터를 안전하게 지키고 악의적 활동을 방해하는 강력한 동료가 될 수 있습니다.

FAQ

The source of the article is from the blog mgz.com.tw

Privacy policy
Contact