Nel 2024, l’entusiasmo iniziale attorno all’IA generativa inizierà a svanire man mano che i problemi legati a questa tecnologia diventeranno sempre più evidenti. Sebbene l’IA generativa abbia mostrato promesse nel migliorare la produttività in vari compiti, è stata anche afflitta da problemi come informazioni false e allucinazioni.
Man mano che le prove aumentano, diventa chiaro che l’IA generativa e i grandi modelli di linguaggio sono inclini a fornire informazioni inaccurate e inventate. La speranza che l’apprendimento supervisionato potesse risolvere rapidamente il problema dell’allucinazione si dimostra ottimistica al meglio. L’architettura di questi modelli, che si concentra sulla previsione della parola successiva o della sequenza di parole, rende estremamente difficile ancorare le previsioni a verità verificate.
Le aspettative di miglioramenti esponenziali della produttività e del raggiungimento dell’intelligenza artificiale generale (AGI) si rivelano insufficienti. Invece, la colpa per i fallimenti della produttività si sposta sull’implementazione impropria dell’IA generativa da parte delle imprese. Il focus si sposta quindi sull’identificare i compiti umani specifici che possono essere potenziati da questi modelli e determinare l’addestramento aggiuntivo richiesto per i lavoratori per rendere ciò una realtà.
Diventa sempre più chiaro che raggiungere una complessa cognizione umana basata esclusivamente sulla previsione delle parole era nient’altro che un sogno irrealizzabile. Tuttavia, ci saranno comunque credenti che sostengono che raggiungere una vera intelligenza sia dietro l’angolo. Purtroppo, molti trascureranno i problemi attuali e continueranno a temere i “rischi esistenziali” dell’IA, ignorando rischi più significativi derivanti da un’implementazione non controllata dell’IA, come il displasia lavorativo, l’ineguaglianza e le minacce alla democrazia.
Nel 2024, l’adozione dell’IA generativa si diffonderà tra numerose aziende ma si rivelerà un’automazione mediocre al meglio. Sebbene possa portare a displacements lavorativi, non riesce a fornire i significativi miglioramenti attesi nella produttività. Le principali applicazioni di ChatGPT e di altri grandi modelli di linguaggio saranno nei social media e nelle ricerche online, dove le piattaforme sfrutteranno annunci digitali personalizzati e intensificheranno la competizione per l’attenzione degli utenti. Di conseguenza, la diffusione della manipolazione e delle disinformazioni online continuerà a crescere, portando a un aumento del tempo trascorso davanti allo schermo e ai problemi di salute mentale correlati.
Anche se ci saranno più startup di intelligenza artificiale, l’industria sarà ultimamente dominata da un duopolio, con Google e Microsoft/OpenAI che guidano il settore con i loro enormi modelli. Altre aziende saranno costrette a sviluppare le proprie app su questi modelli di base, ma la diffusione di informazioni false e allucinazioni porterà a numerosi risultati deludenti.
Le richieste di azioni antitrust e regolamentazioni diventeranno più forti, ma gli sforzi antitrust probabilmente si dimostreranno insufficienti a causa della mancanza di coraggio tra i tribunali e i responsabili delle politiche. Tuttavia, ci saranno discussioni crescenti su nuove leggi e regolamentazioni, indicando un cambio verso una maggiore considerazione bipartisan di una regolamentazione significativa. La mancanza del governo degli Stati Uniti nel tenere il passo con la tecnologia sarà più evidente nel 2024, spingendo alla necessità di recuperare il ritardo e affrontare le sfide poste dall’IA generativa.