Amazon ha annunciato il lancio di Nova Sonic, un modello di intelligenza artificiale generativa pensato per gestire nativamente gli input vocali e generare parlato naturale. Presentato nelle scorse ore, Nova Sonic rappresenta la risposta della compagnia ai progressi nei modelli di OpenAI e Google e dovrebbe distinguersi per velocità, qualità del riconoscimento vocale e naturalezza nella conversazione.
Come accedere a Nova Sonic
Disponibile tramite Amazon Bedrock, la piattaforma per sviluppatori dedicata all’AI aziendale, Nova Sonic è accessibile attraverso una nuova API di streaming bidirezionale. Secondo Amazon si tratta del modello vocale più economico sul mercato con un costo inferiore dell’80% rispetto a GPT-4o di OpenAI.
Nova Sonic è già integrato in Alexa+, evoluzione dell’assistente vocale di Amazon. Stando a quanto dichiarato dai portavoce della casa madre, il nuovo modello eccelle nell’instradamento intelligente delle richieste verso API esterne, fonti di dati proprietarie o servizi online. Ha quindi una grande capacità di orchestrare sistemi complessi.
Durante le conversazioni Nova Sonic è in grado di riconoscere pause e interruzioni, aspettando il momento giusto per rispondere, e trascrive in tempo reale la voce dell’utente per applicazioni future. È poi meno soggetto a errori in fase di riconoscimento rispetto ad altri modelli vocali e riesce ad interpretare correttamente anche frasi dette in ambienti rumorosi o con una pronuncia imperfetta.
I risultati dei test sono incoraggianti
Secondo i test interni Nova Sonic ha raggiunto un tasso di errore medio del 4,2% su più lingue europee. Nella gestione di conversazioni complesse con più partecipanti è risultato il 46,7% più preciso rispetto al modello GPT-4o di OpenAI. In termini di velocità ha poi permesso di registrare una latenza percepita di 1,09 secondi ed è quindi più rapido del modello Sam Altman e soci (1,18 secondi).
Nova Sonic è parte della strategia di Amazon per costruire un’intelligenza artificiale generale (o AGI), capace di operare come un essere umano. Altri modelli multimodali (con supporto per immagini, video, sensori..) sarebbero già in fase di sviluppo.