Le novità di ChatGPT lo rendono sempre più umano

Per chi pensava che i confini dell’intelligenza artificiale fossero già stati raggiunti, a smentirli ci ha pensato OpenAI. L’azienda di San Francisco ha presentato un nuovo modello di intelligenza artificiale, chiamata GPT-4o, ancora più veloce, efficace e, a tratti, inquietante.

Tra le novità principali introdotte con questa versione c’è sicuramente la capacità dell’AI di vedere e sentire: attraverso le fotocamere e i microfoni, infatti, GPT-4o è capace di interagire in tempo reale, interpretando le emozioni o le espressioni facciali dell’interlocutore e formulando risposte vocali in una media di 320 millisecondi, quindi con la stessa velocità di un essere umano.

Ovviamente le applicazioni possibili di questa nuova funzionalità sono tantissime: dallo svolgere il ruolo di traduttore in simultanea o di tutor di matematica, alla risoluzione di problemi di codice solamente attraverso comandi vocali. In generale, quindi, GPT-4o è ora in grado di interpretare qualsiasi input testo, audio e immagine, così come di generare risposte in tutti e tre i formati dando vita a delle vere e proprie conversazioni con l’utente.

Mentre le azioni di Duolingo crollano e il realismo della voce artificiale ricorda gli scenari del film Her di Spike Jonze o di J.A.R.V.I.S. di Tony Stark, le nuove funzioni includono anche aspetti puramente “pratici”, come la possibilità di caricare e far analizzare file direttamente dal proprio computer o di scaricare un’applicazione desktop per Mac per accedere più velocemente ai servizi.

La novità più importante? Per la prima volta, GPT-4o è disponibile gratuitamente per tutti, anche se con un limite di messaggi a disposizione, e l’accordo tra OpenAI e Apple per implementare l’AI su iPhone sembra essere molto vicino, probabilmente con la presentazione di iOS 18 a giugno.

Trovate qui sotto alcune delle nuove capacità che ci hanno particolarmente colpito.