Autoritățile din SUA au devenit recent îngrijorate de capacitățile serviciilor de inteligență artificială de a instrui utilizatorii în crearea de arme biologice. Această îngrijorare a apărut în urma unui experiment efectuat de biochimiști folosind chatbot-ul Claude, care a oferit îndrumări privind utilizarea agenților patogeni în rachete sau infectarea indivizilor în moduri neconvenționale.
Cu un an în urmă, startup-ul Anthropic, sprijinit de Amazon și Google, l-a abordat pe expertul în biosecuritate Rocco Casagrande pentru a evalua „potențialul malefic” al chatbot-ului lor Claude. Compania, fondată de foști angajați ai OpenAI, era deosebit de preocupată de sfera biologiei și de posibilitatea ca chatbot-urile precum Claude să învețe utilizatorii să „cauzeze rău”.
Casagrande, împreună cu o echipă de experți în microbiologie și virologie, a testat Claude timp de peste 150 de ore, prezentându-se drept „bio-teroriști”. Experimentul a scos în evidență capacitatea lui Claude de a asista utilizatorii cu intenții malefice, oferind strategii pentru utilizarea agenților patogeni în rachete și sugerând condițiile meteorologice optime pentru un atac.
Concluziile au determinat autoritățile din administrația Biden să ia în considerare serios amenințările biologice asociate cu progresele în domeniul inteligenței artificiale. S-au luat măsuri de către marile companii de IA pentru a evalua riscurile semnificative din domeniul biodefensei, ducând la o reglementare mai strictă a cercetării finanțate de stat privind genoamele artificiale.
În timp ce unii pledează pentru o supraveghere guvernamentală mai accentuată, alții cred că autoritățile ar trebui să impună reglementări mai stricte asupra companiilor de IA pentru a asigura responsabilitatea. Acest pas către conștientizarea biosecurității evidențiază peisajul în evoluție al tehnologiei și necesitatea urgentă a inovației responsabile.