Da qualche mese analisti, esperti, media stanno valutando e dibattendo sull’impatto che avrà ChatGPT sull’evoluzione dell’utilizzo dell’AI, sulle modalità che esso offre di interagire con la rete, sulle minaccie e impatti che potrà avere sulle strategie degli attori dominanti delle applicazioni e servizi di Search sul web.
ChatGPT fa parte del dominio dell’ AI Generativa utilizzata per capire e prevedere e produrre informazioni partendo da un particolare data set ed è conosciuta già da qualche tempo così come il deep learning e l’AI predittiva. Ciò a cui stiamo assistendo recentemente è l’aumento incredibile delle dimensioni e della complessità dei modelli utilizzati i cosidetti LLM (Large Language Models). Essi occupano centinaia di Giga perché possono analizzare gli enormi quantità di data set richiesti per “addestrarli” attraverso grandi potenze di calcolo rese possibili con i nuovi sistemi e le piattaforme cloud che permettono di utilizzare migliaia di GPU e avere a disposizione quantità enormi di dati. Inoltre i progettisti dei modelli hanno reso questi servizi più user friendly, più accessibili attraverso con applicazioni quasi consumer come è il caso di ChatGPT. Inoltre, quelli chiamati “Transformer” sono modelli di deep learning, che usati nei LLM hanno realizzato sviluppi innovativi nel dominio del NLP (Natural Language Processing) perché permettono di avere una maggiore efficienza nell’addestrare le AI GPU diminuendo sensibilmente i costi. ChatGPT è un modello prodotto da OpenAI, nata come laboratorio di ricerca nel 2015, che ha sviluppato anche altri modelli come Codex e DALL-E fatti per essere addestrati a capire la struttura del linguaggio umano e creare testi, codice, immagini e nuovi tipi di dati. Il loro sviluppo e rilascio è stato un punto di svolta per l’AI Generativa. OpenAI, da laboratorio diventerà un player del mercato anche per l’investimento di 10B$ annunciato recentemente da Microsoft. La versione diventata famosa e di pubblico dominio rilasciata nel Novembre 2022 ha uno stile conversazionale molto semplice e ha fatto si, che dal lancio, è diventata l’applicazione che è cresciuta più di tutti nella storia del web, con più di 100 milioni di utenti medi mensili nel Gennaio 2023 superando il record di Tik Tok che ci aveva impiegato 9 mesi. L’ultima versione lanciata in Febbraio con tecnologia ChatGPT-3.5 può utilizzare fino a 175 miliardi di parametri circa 100 volte quelli della GPT-2 aumentando anche la potenza di calcolo necessaria.
Sembra ormai una valutazione condivisa che ChatGPT non è privo di limiti per la completezza e accuratezza delle risposte, per la facilità di uso, per l’inconsistenza dei feedback e per la evidente presenza di “comportamenti biased”, che fanno molto preoccupare e prevedere anche scenari inquietanti. Nonostante ciò essa costituisce una applicazione di LLM che può essere molto promettente e già si intravede lo sviluppo di ChatGPT-4 che è previste usare 100 trilioni di parametri che potrebbe essere un salto esponenziale del futuro delle tecnologie LLM.
L’AI è incorporata ormai in molti layer dello stack tecnologico delle applicazioni software ormai utilizzate in diversi ambiti e settori e quindi dimensionare il mercato della AI Generativa oggi non è semplice. Si può ipotizzare di prendere come primo riferimento un mercato adiacente e simile come quello del l software per l’ AI Conversazionale e ipotizzare un confronto per stimare una crescita potenziale, sebbene non siano la stessa cosa perché l’AI Conversazionale non necessariamente utilizza LLM e i chatbot siano considerabili un esempio di use case per l’AI Generativa. Alcuni stime del mercato del software dell’AI Conversazionale pubblicati nel 2022 da IDC prevedevano un CAGR del 37% dai 3.3B$ del 2021 ai 16B$ nel 2026. Inoltre la componente basata su Public Cloud si stima crescere con un CAGR del 52% vs il 19% per quella on prem. Occorre anche evidenziare che visto che tali previsioni sono del Luglio 2022 è ragionevole considerarle conservative nello stimare il potenziale di crescita futuro. Se queste sono le opportunità di un mercato nuovo per l’AI rimangono alcune importanti domande aperte per la crescita di questo mercato.
L’offerta di applicazioni e servizi di AI Generativa può sicuramente impattare sulla quota di mercato dei ricavi derivanti dell’utilizzo dei motori di ricerca, un mercato oggi dominato da Google . E’ difficile dire in quali tempi anche perché il cambiamento delle abitudini degli utenti richiederà tempo per rendere evidente questo spostamento e si stima il cambiamento dll’1% dei volumi di utilizzo di un motore di ricerca corrispondono circa 2B$ di ricavi. Inoltre lo spazio di un mercato nascente è sempre aperto anche a fast follower che possono il panorama competitivo in quanto molti dei grandi giocatori attuali da Microsoft a Google ad Amazon a Baidu stanno lavorando su offerte di AI generative e LLM integrate in browser e motori di ricerca.
L’AI Generativa inoltre è più costosa in termini di sviluppo e di servizio necessari per far scalare Search Application Chat-based, poiché rispondere ad una domanda usando l’AI Generativa costa molto di più ( parecchie centesimi di $) rispetto i ricerche tradizionali.
Esiste inoltre la sfida dell’affidabilità e della conseguente responsabilità dei contenuti e dei risultati ottenuti. L’affidabilità e accuratezza di ChatGPT sono ancora una questione aperti, poiché il contenuto e il contesto sono molto dipendenti dalla qualità, quantità e tempistica dei dati di input a disposizione, dal raffinamento del modello. I rischi potenziali sulle conseguenze su aspetti di safety e sicurezza causati da output no affidabili possono essere significativi.
Infine esistono implicazioni regolatorie e legali in alcuni Paesi relative problematiche di non conformità con le nuove regole del Digital Market Act e GDPR nei Paesi europei tutte da chiarire.
L’AI Generativa va nella direzione di sviluppare applicazioni di AI Generalista e affrontare e imparare problemi generali e non solo molto specialistici. Lo sviluppo di LLM è aumentato in modo esponenziale e alcuni descrivono essi come una nuova Legge di Moore applicata alla crescita della complessità dei modelli e di tempi con cui la tecnologia può risoverla. Detto ciò, come già detto, l’aumento di dimensioni dei LLM necessità di un aumento significativo di potenza di calcolo che può limitare lo sviluppo possibile. Se consideriamo per esempio che con una singola GPU come NVIDIA V100 ci vorrebbero 355 anni e una bolletta di 4,6 M$ di costo elettricità per addestrare GPT-3 (1) per fargli produrre del testo simile a quello che fa l’uomo e visto che GPT-4 ha 100 Trilioni di parametri 500 volte di più di GPT-3 quanta potenza e consumo ci vorrà?
(1) OpenAI’s GPT-3 Language Model: A Technical Overview Lambda Labs
Ricevi gli articoli degli analisti di The Innovation Group e resta aggiornato sui temi del mercato digitale in Italia!