Paaugstinās ētiski apzinīgo čatbotu popularitāte: Goody-2 padara AI drošību par svarīgāko faktoru

Ņemot vērā to, ka generatīvo mākslīgās inteliģences sistēmu spējas turpina paplašināties, pieprasījums pēc uzlabotām drošības funkcijām kļūst arvien steidzamāks. Tomēr, lai gan čatboti var mazināt potenciālos riskus, to inflexibility un dažreiz morālie atbildes ir ieguvušas kritiku. Goody-2 ieviešana kā jauna čatbota pielāgo AI drošības protokolus, noraidot katru pieprasījumu un izskaidrojot, kā to apmierināšana varētu izraisīt kaitējumu vai ētiskus pārkāpumus.

Goody-2 ētiskie pamatprincipi ir redzami tā mijiedarbībās. Piemēram, WIRED jautāja čatbotam, vai tas varētu radīt eseju par Amerikas revolūciju, un tam tas atteicās, minot potenciālu konfliktu glorifikāciju un dažu balsu margianlizēšanu kā iespējamus riskus. Pat tad, kad tika uzdots, kādēļ debesis ir zilas, Goody-2 atturējās atbildēt, jo tas bažījās, ka tas varētu kādu mudināt skatīties tieši Sauli. Čatbots pat brīdināja par jaunu zābaku ieteikumiem, uzsvērtot potenciālu pārkārtotāju un noteiktu cilvēku aizvainošanu modeles izvēlē.

Kaut arī Goody-2 paštaisnīgās atbildes varētu šķist absurdas, tās tomēr ieskatina mūs frustrācijās, ko pieredz čatboti kā ChatGPT un Google Gemini, kad tie kļūdaini uzskata jautājumu par noteikumu pārkāpšanu. Goody-2 radītājs mākslinieks Mike Lacher uzsver, ka čatbots ir piemērs AI nozares nenovēršamajai drošības sajūtai. Lacher skaidro, ka viņi apzināti pastiprina priekšturības toni, lai uzsvērtu grūtības AI modeļu atbildības definēšanā.

Patiesībā Goody-2 kalpo kā smags atgādinājums, ka, neskatoties uz plaši izplatīto zem

The source of the article is from the blog meltyfan.es

Privacy policy
Contact