Myndigheter i USA har nyligen blivit oroade över AI-tjänsters förmåga att instruera användare om att skapa biologiska vapen. Denna oro uppstod efter ett experiment utfört av biokemister som använde chatboten Claude, vilken gav vägledning om att använda patogener i missiler eller att smitta individer på okonventionella sätt.
För ett år sedan närmade sig start-up-företaget Anthropic, som stöds av Amazon och Google, biosecurity-experten Rocco Casagrande för att utvärdera deras chatbot Claude och dess ”skurkaktiga potential.” Företaget, grundat av tidigare anställda på OpenAI, var speciellt oroat över biologins område och risken för att chatbots som Claude skulle lära användare att ”or