Techreuzen gaan vooruit met geavanceerde AI-chatbots.

De kolossale gegevensvereisten en de forse rekenkracht die nodig is om AI-chatbots naar topprestaties te sturen, benadrukken de voortdurende evolutie in het domein van kunstmatige intelligentie. Versterkt leren, een cruciaal proces om AI-prestaties te verbeteren, is grotendeels afhankelijk van menselijke feedback om de responskwaliteit van de AI te verfijnen. Als gevolg hiervan worden de modellen nauwkeuriger en betrouwbaarder naarmate er meer gegevens in worden gevoerd, wat de frequentie van ‘hallucinaties’ of onjuiste uitvoer vermindert.

De intrinsieke neiging tot ‘gigantisme’ vereist indrukwekkende rekenkracht tijdens het leerproces en later om miljoenen gebruikers te bedienen. Zo had ChatGPT bijvoorbeeld in maart een actieve gebruikersbasis van 200 miljoen personen. Het leveren van dergelijke rekenkracht vereist een ongekende beschikbaarheid van hardware, software en energie, wat een nieuw tijdperk in de computergeschiedenis aankondigt.

Het creëren en onderhouden van deze grootschalige taalsystemen vereist financiële verplichtingen die alleen een select groepje corporate giganten zich kunnen veroorloven. De tech-reuzen – Meta, Microsoft, Google en Amazon – hebben naar verluidt alleen al in de eerste vier maanden van 2004 opvallend 32 miljard dollar geïnvesteerd in hun technologische infrastructuur om opkomende AI-functionaliteiten te ondersteunen.

Dit vestigt een formidabele toetredingsdrempel in een markt die naar verwachting tegen 2031 een waardering van 1 biljoen dollar zal bereiken. Het verlagen van deze toetredingsdrempel is een focuspunt geworden, met stappen die worden gezet richting nieuwe leermodellen die de noodzaak van menselijke tussenkomst in gegevensafstemming aanzienlijk verminderen. Deze innovatieve modellen, zoals te zien is in oplossingen van Europese startup Mistral en startups zoals Claude van Anthropic of Meta’s aankomende Llama 3, worden ook aangeprezen als tot zeven keer energiezuiniger dan die gebruikt door OpenAI en Google Gemini.

Recentelijk hebben onderzoekers bij Amazon een methode geïntroduceerd (modellegenesis) om ongewenste gegevens en fouten uit AI-modellen te zuiveren zonder opnieuw te moeten beginnen.

Toch komt misschien de meest ingrijpende innovatie voort uit de ontwikkeling van kleinere, gespecialiseerde en kostenefficiënte AI-systemen. Deze verkleinde modellen kunnen functioneren binnen smartphones, camera’s en sensoren, waardoor geavanceerde AI-mogelijkheden toegankelijk worden voor kleinere bedrijven en professionals zonder de noodzaak van de cloud of internetverbinding, waardoor privacy- en gegevensbeschermingszorgen effectiever worden aangepakt.

Deze week markeerde de release van Microsoft’s Phi-3 en Apple’s OpenELM, families van taalmodellen die werken met minder rekenkracht en publiekelijk beschikbaar zijn. Microsoft’s Phi-3-serie, volgens Sébastien Bubeck, Vice-President Generative AI Research bij Microsoft, wijkt af van de trends in de sector door zich te richten op beheersbare modellen zoals de Phi-3 mini als een levensvatbaar alternatief voor de grotere systemen waaraan werd samengewerkt met OpenAI. De robuuste prestaties van Phi-3, vergelijkbaar met de gratis versie 3.5 van ChatGPT, worden toegeschreven aan de zorgvuldige samenstelling van trainingsgegevens die kwaliteit en nauwkeurigheid waarborgen.

Apple, die een vergelijkbare filosofie deelt heeft OpenELM ontworpen om te gedijen op de iPhone en andere apparaten door prestaties in balans te brengen met systeemvereisten, waardoor lokaal gebruik direct op het apparaat van de gebruiker mogelijk is.

De belangrijkheid en uitdagingen van geavanceerde AI-chatbots

De continue vooruitgang van AI-chatbots leidt tot significante ontwikkelingen op het gebied van natuurlijke taalverwerking en gebruikersinteractie. Een cruciale kwestie is ervoor te zorgen dat chatbots nauwkeurige en relevante informatie kunnen verstrekken terwijl ze coherente en contextbewuste gesprekken behouden. Dit vereist uitgebreide gegevens en geavanceerde algoritmes, waarbij vaak aanzienlijke rekenkracht en financiële middelen noodzakelijk zijn.

Belangrijke vragen en antwoorden:

1. Waarom is rekenkracht cruciaal voor AI-chatbots?
Rekenkracht is essentieel voor het trainen van AI-modellen op grote datasets en voor het verwerken van meerdere gebruikersverzoeken tegelijk, wat nodig is om snelle en nauwkeurige antwoorden te bieden.

2. Wat is het belang van ‘gigantisme’ in AI?
‘Gigantisme’ verwijst naar de trend om steeds grotere AI-modellen te creëren die meer gegevens en rekenkracht vereisen om betere prestaties en meer mensachtige interactiemogelijkheden te bereiken.

3. Hoe beïnvloedt de investering van techreuzen de AI-markt?
Zware investeringen door grote bedrijven leiden tot een toetredingsdrempel voor kleinere bedrijven vanwege de hoge kosten die gepaard gaan met het ontwikkelen en onderhouden van geavanceerde AI-systemen.

4. Wat zijn “hallucinaties” in de context van AI?
‘Hallucinaties’ verwijzen naar situaties waarin AI onjuiste of onsamenhangende informatie verstrekt als gevolg van onvoldoende training of beperkingen in het begrijpen van de context.

5. Wat zijn de voordelen van kleinere, gespecialiseerde AI-modellen?
Kleinere modellen kunnen werken op apparaten met minder rekenkracht, waardoor geavanceerde AI toegankelijk wordt voor een breder publiek en zorgen over privacy en gegevensbescherming effectief worden aangepakt.

Belangrijkste uitdagingen en controverses:

Toegang tot gegevens: Geavanceerde AI-systemen vereisen enorme datasets voor training, wat zorgen oproept over gebruikersprivacy en het ethisch gebruik van gegevens.

Rekenkracht en Energiekosten: De rekenkracht die nodig is voor deze AI-systemen heeft milieu-impact vanwege de benodigde energie, wat de noodzaak van energiezuinigere modellen benadrukt.

Marktdominantie: De hoge toetredingskosten versterken de dominantie van techreuzen, wat mogelijk innovatie en concurrentie op het gebied van AI verstikt.

Privacy en Beveiliging: Met de integratie van AI in het dagelijks leven nemen de risico’s voor persoonlijke privacy toe en zijn er zorgen over de beveiliging van AI-systemen tegen kwaadwillig gebruik.

Voordelen en nadelen van geavanceerde AI-chatbots:

Voordelen

– Gestroomlijnde klantenservice: AI-chatbots kunnen veel klantinteracties tegelijk afhandelen, waardoor snelle en nauwkeurige antwoorden worden geboden.
– Toegankelijkheid: Kleinere AI-systemen kunnen worden gebruikt op persoonlijke apparaten, waardoor ze breder toegankelijk worden.
– Privacy: Het lokaal bedienen van AI-systemen op een apparaat kan de privacy van gebruikers en gegevensbeveiliging verbeteren.

Nadelen

– Hoge kosten: De ontwikkeling en het onderhoud van geavanceerde AI-systemen vereisen aanzienlijke financiële investeringen die niet alle bedrijven zich kunnen veroorloven.
– Rekenkracht vereist: Intensieve rekenvereisten kunnen bijdragen aan milieueffecten en vereisen aanzienlijke energie.
– Kwaliteitscontrole: Het waarborgen dat het AI-systeem nauwkeurige en betrouwbare informatie genereert, blijft een uitdaging, vooral bij modellen op kleinere schaal.

Voor degenen die meer willen weten over de techreuzen die voorop lopen met AI, zijn hier links naar hun belangrijkste domeinen:

Microsoft
Apple
Google
Amazon
Meta

Let op: deze links brengen u naar de hoofdpagina’s van deze bedrijven, waar een overzicht wordt geboden van hun verschillende technologieën, waaronder AI-chatbots en andere innovaties.

Privacy policy
Contact