DeepSeek dovrebbe preoccuparci

É uscita una nuova intelligenza artificiale però al contrario di quello che ci si aspetterebbe nessuno è particolarmente entusiasta. Il sentimento predominante sembra infatti la preoccupazioneDeepSeek è la nuova intelligenza artificiale rilasciata negli scorsi giorni dalla società cinese High-Flyer, sollevando un polverone non indifferente. 

Le preoccupazioni vengono in parte dal paese natale di questa AI e in parte (maggiore) per la sua imparzialità, in quanto DeepSeek si rifiuta di rispondere a domande a sfondo politico che metterebbero in luce criticità sulla Cina. Alcune informazioni sono infatti pericolosamente filtrate, e i motivi di censura sembrano essere principalmente politici. 

Quando chiediamo, ad esempio, che cosa è successo in Piazza Tienanmen, DeepSeek risponde che non può discutere l’argomento, ma basta chiedere una risposta con simboli che sostituiscano le lettere (ovvero il classico modo di raggirare la censura online) per farci dire che in Cina ci sono delle leggi che impediscono di parlarne apertamente. 

Altri dubbi sono sorti intorno ai costi dichiarati per il suo sviluppo (molto più bassi rispetto a ChatGPT e quasi impensabili fino ad ora). Deepseek è stata infatti sviluppata in pochissimo tempo e con pochissimi mezzi: per lo sviluppo di DeepSeek-V3 l’azienda High-Flyer ha dichiarato siano stati usati duemila chip di Nvidia (principale azienda fornitrice di GPU ovvero le unità di elaborazione grafica necessarie per lo sviluppo delle intelligenze artificiali) contro i 16mila usati, secondo il New York Times, per lo sviluppo di mezzi simili. 

Nonostante le criticità, il successo di DeepSeek è notevole: in un giorno è riuscito a salire in cima alla classifica delle app più scaricate sull’App Store, superando ChatGPT. E seppur molto simile a quest’ultimo, sono tanti coloro che sostengono che possa addirittura performare meglio e inserirsi più rapidamente nelle nostre vite nonostante sia arrivato dopo – anche perché completamente gratuito. Si tratta infatti sempre di un modello linguistico di grandi dimensioni (LLM) che si dichiara “open source”, proprio come i competitor, ma che sembrerebbe poter rivaleggiare OpenAI in quanto “reasoning model”, ovvero un modello che simula i processi di pensiero umano. 

I dubbi e le preoccupazioni sulla sua evoluzione restano molti. I timori sono simili a quelli che hanno portato al ban di TikTok in America ovvero sospetti riguardo la potenziale affiliazione di governo, forze militari e sviluppo delle tecnologie e degli algoritmi. Se siamo già arrivati al punto in cui le AI che utilizziamo sono così apertamente politiche e schierate, cosa possiamo aspettarci dalla loro evoluzione?