Enkrypt AI가 안전하고 준수된 생성적 AI 도입을 위해 2.35백만 달러 자금을 확보

Enkrypt AI는 기업 내에서 생성적 AI 도입 분야에서 선도적인 기업으로 최근 2.35백만 달러의 성공적인 자금 조달을 발표했습니다. 이 자금은 비즈니스 세계에서 생성적 AI 및 대형 언어 모델 (LLMs) 사용에 따른 안전, 보안 및 준수 우려사항을 해결하는 데 사용될 예정입니다.

생성적 AI와 LLMs는 다양한 산업의 효율성과 기능성을 향상시키는 데 큰 잠재력을 제공합니다. 그러나 이러한 기술들과 관련된 내재적인 위험들은 보급화에 큰 장애가 되어왔습니다. Enkrypt AI는 기업들에게 LLMs 및 생성적 AI의 안전하고 준수된 사용을 보장하는 포괄적인 도구 상자를 제공함으로써 이 간극을 메우려고 합니다.

이 자금 조달 라운드는 AI, 의료 및 기업 분야의 다른 주요 투자자들의 참여를 통해 Boldcap이 주도했습니다. Enkrypt AI는 2022년에 Yale 대학 박사 학위 소지자인 Sahil Agarwal과 Prashanth Harshangi에 의해 설립되었으며, 이들은 경험 많은 AI 전문가입니다. Sentry로 불리는 Enkrypt AI 플랫폼은 LLMs와 최종 사용자 사이의 제어층으로 작용하여 필수적인 보안 및 안전 기능을 제공합니다.

Sentry의 활용을 통해 Enkrypt AI는 이미 LLMs 내의 취약성을 상당히 감소시켰습니다. 예를 들어, LlaMa2-7B의 경우, 이 플랫폼은 탈옥을 6%에서 0.6%로 성공적으로 감소시켰습니다. 이 인상적인 성적표는 Sentry를 사용하여 LLM 프로젝트 전반에 걸쳐 완전한 액세스 제어와 가시성을 확보하는 선도적 데이터 인프라 기업과 같은 포춘 500 개사들의 주목을 끌었습니다.

Enkrypt AI의 보안에 대한 포괄적인 접근은 LLM 사용의 비매치 가시성과 감독, 민감한 정보의 보호, 그리고 변화하는 표준에 대한 엄격한 준수를 포함합니다. 이 플랫폼은 취약성을 탐지할 뿐만 아니라 현재와 미래의 위협에 대응하여 개발자들에게 AI 솔루션을 강화하기 위한 필수 도구를 제공합니다.

AI 안전의 중요성은 미 정부의 NIST 표준 기관에 의해 AI 안전 컨소시엄 설립을 강조함으로써 정부 정책 결정자들과 전문가들에 의해 인정되었습니다. 생성적 AI의 보안 및 준수를 보장하는 것은 더 이상 최선의 규범이 아니라 필수 사항이 되었습니다.

Enkrypt AI의 미션은 기업들이 응용 프로그램의 보안 및 준수에 대한 확신을 가지며 생성적 AI의 전체 잠재력을 발휘할 수 있도록 하는 것입니다. AI 안전에서 새로운 표준을 설정함으로써, 이 기업은 사용자들과 조직들이 신생 위협으로부터 보호받으면서 책임 있는 AI 혁신의 보급화를 가능하게 하기 위해 노력하고 있습니다.

투자자들과 그들의 고급 플랫폼 기능의 지원을 받아, Enkrypt AI는 LLM의 통합 및 관리를 혁신하여 생성적 AI를 다양한 산업의 기업들에게 안전하고 준수된 현실로 만드는 데 기여하고 있습니다.

The source of the article is from the blog aovotice.cz

Privacy policy
Contact