Повишаване на надеждността на изкуствен интелект с иновативното приложение на Cleanlab.

Намаляването на риска в езиковите модели на изкуствения интелект

С изкуствения интелект (ИИ) трансформиращ секторите, фокусът е върху Генеративния ИИ и неговият творчески потенциал. Въпреки възможностите си, разпознаването на фактите от фикцията представлява предизвикателство за бизнеса, който обмисля използването му. Влиза Cleanlab, ИИ стартъп, роден от квантовата компютърна лаборатория на MIT, който разполага с новаторско решение за увеличаване на доверието на потребителите във високорискови ситуации.

Представянето на Доверителната Езикова Модел

Cleanlab разработи приложение, наречено Доверителната Езикова Модел, което оценява изходите на езиковите модели по скала от 0 до 1 за надеждност. Това позволява на потребителите да различават кои отговори, генерирани от ИИ, са достоверни и кои трябва да бъдат отхвърлени, позиционирайки Cleanlab като вид детектор на лъжата на ИИ.

Изпълнителният директор на Cleanlab, Къртис Норткът, изрази оптимизъм, че този инструмент ще подобри привлекателността на големите езикови модели за бизнес приложения. Той отбеляза важността да се преодолеят препятствията, представляни от „халюцинациите“ на ИИ, които се отнасят до генерирането на неправилна или безсмислена информация.

Прецизността в центъра на вниманието

Забележително изследване на Vectara показа, че чатботите, все по-централни за извлечение на информация, предоставят фалшива информация около 3% от времето – значителна грешка в бизнес средата.

Последователностите и бъдещите цели на Cleanlab

През 2021 г. Cleanlab направи крачка в напредъка, като идентифицира грешки в наборите от данни, които се използват често за обучението на алгоритми за машинно обучение. Оттогава забележителни корпорации като Google, Tesla и Chase са използвали тази технология. Доверителният Езиков Модел разширява този принцип на чатботите, като цели да открива несъответствия и така да определя общата надеждност на системата.

Пример, посочен в презентация от Cleanlab, показва как такъв инструмент може да функционира. При въпрос колко пъти се среща буквата ‘n’ в думата „enter“, разнообразните отговори на чатбота илюстрираха произвола в отговорите на ИИ. Инструментът на Cleanlab оцени верния отговор със скромен брой точки на надеждност, подчертавайки риска без наличието на такава система за оценка. Това подсилва мисията на Cleanlab: да направи непредсказуемостта на ИИ по-очевидна и да предотвратява водещите правилни отговори да създадат лъжливо усещане за сигурност във високорискови сценарии.

Подобряване на надеждността на ИИ с иновативния подход на Cleanlab

Тъй като зависимостта от ИИ нараства, е от съществено значение да се гарантира, че неговите изходи са точни и достоверни. Доверителният Езиков Модел на Cleanlab се справя с това необходимост. Чрез оценка на изходите за надеждност, потребителите могат да вземат по-информирани решения относно информацията, която получават от ИИ системи. Това е особено важно в областите, където грешен избор, базиран на грешна информация на ИИ, може да има сериозни последици.

Основни предизвикателства в надеждността на ИИ

Едно от основните предизвикателства в надеждността на ИИ е възможността на ИИ системите, особено на езиковите модели, да генерират правдоподобни, но неточни или безсмислени отговори (известни като „халюцинации“). Друго предизвикателство е наличието на предразсъдъци и грешки в обучаващите данни, които могат да поддържат дезинформация и изкривени перспективи, когато моделите се прилагат.

Спорове, свързани с надеждността на ИИ

Надеждността на ИИ често се основава на съмненията, като непрозрачността на процесите за вземане на решения в моделите на дълбоко обучение може да доведе до непредвидимост и липса на отговорност. Съществува и загриженост за това в каква степен зависимостта от ИИ може да доведе до самодоволство, което потенциално може да изтощи критичното мислене и уменията за вземане на решения сред потребителите.

Предимства на подхода на Cleanlab

Предимства:
Повишена прозрачност: Предоставянето на точка на надеждност помага на потребителите да разберат нивото на доверие, което могат да имат в изхода на машината.
Подобрена безопасност и отговорност: Във високорискови сфери като здравеопазване, финанси или правоприлагане последствията от действията върху грешна информация могат да бъдат сериозни. Доверителният Езиков Модел може да бъде гарант.
Поправка на данните: Историята на Cleanlab в идентифицирането на грешки в наборите от данни означава, че те не само оценяват изходите, но и допринасят за подобряването на ИИ в източника.

Недостатъци:
Прекомерната зависимост от оценки: Потребителите могат да се обърнат на оценките за надеждност, които не винаги могат да уловят нюансите на вярността или приложимостта в нови ситуации.
Ограничен обхват: Първоначалното пускане се фокусира върху езиковите модели. Други форми на ИИ, като разпознаване на изображения или автономни системи, все още могат да представят рискове, които не се адресират от инструмента.

За да се изследва надеждността на ИИ и развитията в областта на сигурността на ИИ, може да се обърнете към реномирани домейни на организации и академични институции, занимаващи се с изследвания в областта на ИИ, като:

Google AI
DeepMind
OpenAI
Microsoft AI Research
MIT IBM Watson AI Lab

Важно е потребителите да бъдат насочени към основните домейни на тези организации, осигурявайки достъп до разнообразна информация за последните иновации в областта на ИИ, подходите към сигурност и научните успехи.

Privacy policy
Contact