Един правителствен изследователски институт ще публикува насоки през август с цел предотвратяване на разпространението на дезинформация, свързана с разрастването на изкуствен интелект (ИИ). Те също ще публикуват процедурен наръчник за разследване на дефекти в ИИ и неподходящи изходни данни от гледна точка на потенциално злоупотреба.
Основната цел на тези насоки е да осигурят яснота относно какво представлява безопасен ИИ, позволявайки на бизнесите уверено да използват технологиите на ИИ. Новоосъздаденият Институт за безопасност на ИИ, по ръководство на директора Акико Мураками, подчерта важността на разрешаването на компаниите и технолозите да се съсредоточат върху иновациите, като едновременно с това се справят с рисковете като разпространението на дезинформация и дискриминацията в областта на ИИ.
Директорът Мураками подчерта значението на сътрудничеството с изследователски институти от Съединените щати и Обединеното кралство за идентифициране на рисковете, свързани с ИИ в производствените среди, където Япония е водеща. Дискусиите между правителствените и частния сектор все още са в начален етап, като се признава необходимостта от навигация на мерките за безопасност сред бързото технологично развитие без да се спира иновациите.
Въпреки че размишляват за установяването на критерии за оценка на безопасността на ИИ, институтът се въздържа от залагане на конкретни стандарти в това издание, оставяйки го за бъдещ повест. Директор Мураками, бивш изследовател по ИИ в IBM Япония и в момента главен директор по данни в Сомпо Япония, ръководи техническите изследователски усилия за подобряване на безопасността на разработването и внедряването на ИИ.
Подготвяйки се да публикува насоките си относно оценката на безопасността на ИИ през август, правителственият изследователски институт разширява дискусиите, за да включи по-широка област от наблюдения, освен дезинформацията и дефектите. Въпросът за един ключов въпрос възниква: Как може тези насоки да се приспособят към бързо развиващият се пейзаж на технологиите и приложенията на ИИ?
Един важен аспект, който може да бъде включен в наскорошните насоки, е намаляването на предразсъдъците в алгоритмите на ИИ и адресирането на етичните проблеми, свързани с процесите на вземане на решения на ИИ. Този въздейства клчествено въпрос; Как могат насоките да гарантират справедливост и отговорност в системите на ИИ в различни индустрии и обществени контексти?
Един значителен проблем в оценката на безопасността на ИИ е интерпретирането на резултатите от системите на ИИ, особено в сложни сценарии, където решенията могат да имат дълбоки последствия. Как могат насоките да предоставят ясни рамки за оценка и валидиране на резултатите от моделите на ИИ, за да гарантират прозрачност и надеждност?
Стандартизирането на процесите за оценка на безопасността на ИИ може да донесе консистентност и яснота в практиките на индустрията, улеснявайки по-добро разбиране и съответствие. Въпреки това, строгата природа на стандартите може да подгони иновациите и да попречи на гъвкавоста, необходима за справяне с уникални предизвикателства в конкретните приложения на ИИ. Как насоките могат да постигнат баланс между стандартизацията и приспособяемостта?
Свързани връзки:
– Правителствен Изследователски Институт