NEWSLETTER - IL CAFFE' DIGITALE
ChatGPT e AI Generativa : quali prospettive di mercato

 

Da qualche mese analisti, esperti, media stanno valutando e dibattendo sull’impatto che avrà ChatGPT sull’evoluzione dell’utilizzo dell’AI, sulle modalità che esso offre di interagire con la rete, sulle minaccie e impatti  che potrà avere sulle strategie degli attori dominanti delle applicazioni e servizi di Search sul web.

ChatGPT fa parte del dominio dell’ AI Generativa utilizzata per capire e prevedere e produrre informazioni  partendo da un particolare data set ed è conosciuta già  da qualche tempo così come il deep learning e l’AI predittiva. Ciò a cui stiamo assistendo recentemente è l’aumento incredibile delle dimensioni e della complessità dei modelli utilizzati i cosidetti LLM (Large Language Models). Essi occupano centinaia di Giga perché possono analizzare gli enormi quantità di data set richiesti  per   “addestrarli”  attraverso grandi potenze di calcolo rese possibili con i nuovi sistemi e le piattaforme cloud che permettono di utilizzare migliaia di GPU e avere a disposizione quantità enormi di dati. Inoltre i progettisti dei modelli hanno reso questi servizi  più user friendly, più accessibili attraverso con applicazioni quasi consumer come è il caso di  ChatGPT.  Inoltre, quelli chiamati “Transformer” sono modelli di deep learning, che usati nei LLM hanno realizzato sviluppi innovativi nel dominio del NLP (Natural Language Processing) perché permettono di avere  una maggiore efficienza nell’addestrare le AI GPU diminuendo sensibilmente  i costi.   ChatGPT è un modello  prodotto da OpenAI, nata come laboratorio di ricerca nel 2015, che ha sviluppato anche altri modelli come Codex e DALL-E fatti per essere addestrati a capire  la struttura del linguaggio umano e creare testi, codice, immagini e nuovi tipi di dati. Il loro sviluppo e rilascio  è stato un punto di svolta per l’AI Generativa. OpenAI, da laboratorio diventerà un player del mercato anche per l’investimento di 10B$ annunciato recentemente da Microsoft. La versione diventata famosa e di pubblico dominio rilasciata nel Novembre 2022 ha  uno stile conversazionale molto semplice e ha fatto si, che dal lancio, è diventata l’applicazione che è cresciuta più di tutti nella storia del web, con più di 100 milioni di utenti medi mensili nel Gennaio 2023 superando il record di Tik Tok che ci aveva impiegato 9 mesi. L’ultima versione lanciata in Febbraio con tecnologia ChatGPT-3.5 può utilizzare fino a 175 miliardi di parametri circa 100 volte quelli della GPT-2 aumentando anche la potenza di calcolo necessaria.

Sembra ormai una valutazione condivisa che ChatGPT non è   privo di limiti per la completezza e accuratezza delle risposte, per  la facilità di uso, per l’inconsistenza dei feedback e per la evidente presenza di “comportamenti biased”,  che fanno molto preoccupare e prevedere anche scenari inquietanti. Nonostante ciò essa costituisce una applicazione di LLM che può essere molto promettente e già si intravede lo sviluppo di ChatGPT-4 che è previste usare 100 trilioni di parametri che potrebbe essere  un salto esponenziale del futuro delle tecnologie LLM.

L’AI è incorporata ormai in molti layer dello stack tecnologico delle applicazioni software ormai utilizzate in diversi ambiti e settori e quindi  dimensionare  il mercato della AI Generativa  oggi non è semplice.  Si può  ipotizzare di prendere come primo riferimento un mercato adiacente e simile come quello del l software  per l’ AI Conversazionale e ipotizzare un  confronto per stimare una crescita potenziale, sebbene  non siano la stessa cosa perché l’AI Conversazionale non necessariamente utilizza LLM e i chatbot siano considerabili un esempio di use case per l’AI Generativa.  Alcuni stime del mercato del software dell’AI Conversazionale pubblicati nel 2022 da IDC  prevedevano un CAGR del 37% dai  3.3B$ del 2021 ai 16B$ nel 2026. Inoltre  la componente basata su Public Cloud si stima crescere con un CAGR del 52% vs il 19% per quella on prem.  Occorre anche evidenziare che visto  che tali previsioni sono del Luglio 2022 è ragionevole considerarle conservative nello stimare il potenziale di crescita futuro.  Se queste sono le opportunità di un mercato nuovo per l’AI rimangono alcune importanti domande aperte per la crescita di questo mercato.

L’offerta di applicazioni e servizi di AI Generativa può sicuramente  impattare sulla quota di mercato dei ricavi derivanti dell’utilizzo  dei motori di ricerca, un mercato  oggi dominato  da Google . E’ difficile dire in quali tempi anche perché il cambiamento delle abitudini degli utenti richiederà tempo per rendere evidente questo spostamento e si stima il cambiamento dll’1% dei volumi di utilizzo di un motore di ricerca corrispondono circa 2B$ di ricavi. Inoltre lo spazio di un mercato nascente è sempre aperto anche a fast follower che possono il panorama competitivo in quanto molti dei grandi giocatori attuali da Microsoft  a Google ad Amazon a Baidu stanno lavorando su offerte di AI generative e LLM integrate in browser e motori di ricerca.

L’AI Generativa inoltre è più costosa in termini di sviluppo e di servizio necessari per far scalare Search Application Chat-based, poiché rispondere ad una domanda usando l’AI Generativa costa molto di più  ( parecchie centesimi di $) rispetto i ricerche tradizionali.

Esiste inoltre la sfida dell’affidabilità e della conseguente  responsabilità dei contenuti e dei risultati ottenuti. L’affidabilità e accuratezza di ChatGPT sono ancora una questione aperti, poiché il contenuto e il contesto sono molto dipendenti dalla qualità, quantità e tempistica dei dati di input a disposizione,  dal raffinamento del modello. I  rischi potenziali  sulle conseguenze  su aspetti di safety e sicurezza causati da output no affidabili possono essere significativi.

Infine esistono implicazioni regolatorie e legali  in alcuni Paesi relative problematiche di non conformità con le nuove regole del  Digital Market Act e GDPR nei Paesi europei tutte da chiarire.

L’AI Generativa  va nella direzione di sviluppare applicazioni di AI Generalista e affrontare e imparare problemi generali e non solo molto specialistici. Lo  sviluppo di LLM è aumentato in modo esponenziale e  alcuni descrivono essi come  una nuova Legge di Moore applicata alla crescita della complessità dei modelli e di tempi con cui la tecnologia può risoverla. Detto ciò, come già detto,  l’aumento di dimensioni dei LLM necessità di un aumento significativo di potenza di calcolo che può limitare  lo sviluppo possibile. Se consideriamo per esempio che con una singola GPU come NVIDIA V100 ci vorrebbero 355 anni e una bolletta di 4,6 M$ di costo elettricità per addestrare GPT-3 (1) per fargli produrre del testo simile a quello che fa l’uomo e visto che GPT-4 ha 100 Trilioni di parametri 500 volte di più di GPT-3 quanta potenza e consumo ci vorrà?  

(1) OpenAI’s GPT-3 Language Model: A Technical Overview Lambda Labs

 

ULTIMO NUMERO
ARCHIVIO
LE RUBRICHE
COME NASCE IL CAFFÈ DIGITALE
REGISTRATI
Iscriviti alla Newsletter mensile!
Ricevi gli articoli degli analisti di The Innovation Group e resta aggiornato sui temi del mercato digitale in Italia!