back to top

Visual Intelligence, la Google Lens di Apple

Visual Intelligence è una nuova funzionalità sviluppata da Apple il cui funzionamento ricorda molto da vicino quello di Google Lens. Creata da Mountain View, quest’ultima consente di inquadrare un oggetto o un luogo con la fotocamera dello smartphone e di effettuare ricerche in base all’immagine.

Come funziona Visual Intelligence

Presentata nel corso dell’evento “It’s Glowtime” durante il quale sono stati annunciati anche i nuovi iPhone 16, la Visual Intelligence è parte del progetto Apple Intelligence. Con esso Cupertino offrirà una serie di funzionalità basate sull’Intelligenza Artificiale tramite le sue piattaforme e i suoi dispositivi. Si tratta però di una novità che non vedremo presto nel nostro Paese.

Pubblicità

Grazie ad essa un utente potrà scattare una foto e poi sfruttare l’AI per ottenere delle informazioni sui soggetti ripresi. Fotografando, ad esempio, un monumento, il sistema risponderà fornendo tutti i dettagli riguardo al suo autore e alla sua storia. Lo stesso si potrà ottenere con lo scatto di un animale, di una pianta, di un ristorante o di un personaggio famoso.

Tra i vantaggi della Visual Intelligence vi è il fatto che essa può essere integrata con applicazioni di terze parti, come per esempio il motore di ricerca di Google o ChatGPT. Gli sviluppatori avranno a disposizione le API (Application Programming Interface) necessarie. Per quanto riguarda invece gli utenti, essi potranno comunque tutelare la propria privacy scegliendo di utilizzarla tramite Apple Intelligence e il Cloud privato di Tim Cook e soci. Le integrazioni con App esterne dovranno essere inoltre autorizzate.

Apple Intelligence: si inizia con una beta

Come sottolineato in precedenza, gli utenti italiani dovranno attendere diversi mesi prima di poter accedere all’Apple Intelligence. Questo significa che i primi acquirenti dell’iPhone 16 lo acquisteranno a prezzo pieno senza quella che è la sua feature più rilevante.

In ogni caso l’Apple Intelligence non sarà completamente funzionante da subito. Cupertino lancerà inizialmente una beta in cui verranno incluse soltanto alcune funzionalità selezionate.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

R1-Omni: l’AI di Alibaba che interpreta le emozioni umane

Il team Tongyi Lab di Alibaba ha annunciato il...

L’iPhone 17 avrà un design ultrasottile

Nuove indiscrezioni, chiaramente non autorizzate da Apple, avrebbero svelato...

OpenAI rilascia nuovi tool per la creazione di Agenti AI

Nelle scorse ore OpenAI ha annunciato una serie di...

Browser Use permette agli agenti AI di navigare sul Web (da soli)

Manus, la piattaforma AI agent della startup cinese Butterfly...

Apple: Siri con AI in ritardo per paura della prompt injection?

Apple ha annunciato degli importanti miglioramenti per Siri durante...

Meta: il chip per l’AI ce lo facciamo da soli

Meta sta testando il suo primo chip progettato internamente...
Pubblicità