Förbättra AI:s tillförlitlighet med Cleanlabs innovativa app

Minska Risk i AI-språkmodeller

Med artificiell intelligens (AI) som omvandlar branscher, riktas strålkastarljuset mot Generativ AI och dess kreativa förmåga. Trots dess potential utgör det en utmaning för företag att skilja fakta från fiktion när man överväger dess användning. Här kommer Cleanlab, en AI-startup född från MIT:s kvantdatorlabb, med en ny lösning för att öka användarnas förtroende i högriskscenarier.

Introduktion av den Tillförlitliga Språkmodellen

Cleanlab har utvecklat en applikation, kallad den Tillförlitliga Språkmodellen, som bedömer språkmodellens resultat på en skala från 0 till 1 för tillförlitlighet. Det ger användarna befogenhet att skilja vilka AI-genererade svar som är trovärdiga och vilka som bör ignoreras, vilket placerar Cleanlab som en sorts AI-falskhetsdetektor.

VD:n för Cleanlab, Curtis Northcutt, uttrycker optimism över att verktyget kommer att öka attraktionskraften hos stora språkmodeller för affärsapplikationer. Han understryker vikten av att övervinna hindren som uppstår på grund av AI:s ibland ”hallucinella” fel, vilket syftar på genereringen av felaktig eller osammanhängande information.

Noggrannhet i Fokus

En oroande upptäckt från en Vectara-studie visade att chatbots, alltmer centrala för informationsåtervinning, ger ut fabricerad information cirka 3% av tiden – en betydande felmarginal i affärsvärlden.

Cleanlabs Framsteg och Framtida Mål

Under 2021 gjorde Cleanlab framsteg genom att identifiera fel i dataset som ofta används för träning av maskininlärningsalgoritmer. Noterbara företag, inklusive Google, Tesla och Chase, har sedan dess använt denna teknologi. Den Tillförlitliga Språkmodellen tillämpar denna princip på chatbots och strävar efter att markera inkonsekvenser samt avgöra systemets totala tillförlitlighet.

Ett exempel som nämndes i en presentation av Cleanlab visade hur ett sådant verktyg kan fungera. När man frågade hur många gånger bokstaven ’n’ visas i ordet ”enter”, illustrerade chatbotens varierande svar slumpmässigheten i AI-svar. Cleanlabs verktyg utvärderade det korrekta svaret med en måttlig tillförlitlighetssiffra och lyfte fram risken utan ett sådant bedömningssystem. Det betonar Cleanlabs uppdrag: att göra AI:s oförutsägbara natur tydligare och förhindra att vilseledande korrekta svar skapar en falsk trygghet i höggradiga situationer.

Ökad Tillförlitlighet i AI med Cleanlabs Innovativa Tillvägagångssätt

I takt med att förtroendet för AI växer blir det avgörande att säkerställa att dess resultat är korrekta och tillförlitliga. Cleanlabs Tillförlitliga Språkmodell tar sig an denna nödvändighet direkt. Genom att bedöma resultaten för tillförlitlighet kan användarna fatta mer informerade beslut om informationen de får från AI-systemen. Detta är särskilt viktigt inom områden där ett felaktigt beslut grundat på felaktig AI-information kan få allvarliga konsekvenser.

Privacy policy
Contact