domenica, Dicembre 22, 2024

Google Pixel Visual Core, il primo coprocessore per android

- Advertisement -

Notizie più lette

Redazione
Redazionehttp://www.2anews.it
2Anews è un magazine online di informazione Alternativa e Autonoma, di promozione sociale attivo sull’intero territorio campano e nazionale. Ideato e curato da Antonella Amato, giornalista professionista. Il magazine è una testata giornalistica registrata presso il Tribunale di Napoli n.67 del 20/12/2016.

Il coprocessore Pixel Visual Core progettato da Google serve per elaborare le immagini piu’ rapidamente, in maniera piu’ efficiente e intelligente.

Il lancio dei nuovi smartphone Pixel 2 di Google è stato un successo e dal 5 dicembre è stato possibile attivare il nuovo coprocessore Pixel Visual Core per elaborare le immagini piu’ rapidamente, in maniera piu’ efficiente e intelligente.

Il chip integrato nei Pixel 2 e Pixel 2 XL permette di acquisire immagini HDR+ cinque volte più velocemente e con un consumo energetico ridotto del 90%. Pixel Visual Core sarà inoltre chiamato a sovrintendere numerosi compiti legati al funzionamento delle app per l’intelligenza artificiale, traendo vantaggio dall’utilizzo della libreria NNAPI (Neural Networks API) di Android 8.1.

Pixel Visual Core, primo coprocessore Google per androidIl coprocessore Pixel Visual Core funziona in maniera indipendentemente dal chipset Qualcomm Snapdragon 835 principale che fa girare lo smartphone e comprende una CPU con un singolo core Cortex-A53, otto unità di elaborazione delle immagini o IPU (Image Processing Unit) e memoria LPDDR4, tutti separati dalla SoC principale. Già ora la fotocamera dei Pixel 2 sarebbe la migliore del mercato secondo DXoMark; l’attivazione del chip Pixel Visual Core può quindi dare un ulteriore “bonus” agli smartphone di Google. L’attivazione del Pixel Visual Core è possibile installando le immagini della seconda beta di Android 8.1, disponibili sul sito web di Google. Secondo Google, la fotocamera sul nuovo Pixel 2 vantando di potenti hardware, software e apprendimento automatico (Machine Learning / ML) puo’ “fare foto e video incredibili”.

Tra le tecnologie presenti nell’app Fotocamera di Google si trova l’HDR+, che consente di ottenere foto con piu’ colori in diverse condizioni di luminosità, da paesaggi poco illuminati ad un cielo molto soleggiato. HDR+ produce immagini grazie ad un algoritmo che Google ha sviluppato in un anno di lavoro, permettendo alla fotocamera del Pixel 2 di catturare più immagini in sequenza ed elaborarle in modo intelligente in background velocemente e senza rallentare il sistema. Al contempo, Google ha anche lavorato per la creazione di funzionalità hardware che consentono una potenza di calcolo maggiore – oltre l’hardware esistente – per rendere disponibile l’HDR+ anche nelle applicazioni di terze parti. Ed è qui che entra in gioco il coprocessore chiamato Pixel Visual Core, proprio per una migliore cattura di immagini con HDR+ non solo nell’app Fotocamera di Google ma anche nelle applicazioni di imaging di terze parti, le quali potranno fornire immagini elaborate in maniera rapida, con una più bassa latenza e senza consumare troppe risorse dello smartphone.

Al centro del coprocessore Pixel Visual Core si trova l’Unità di elaborazione delle immagini (IPU) progettata da Google – un processore completamente programmabile, specifico per fornire prestazioni massime con bassi consumi. Otto sono i core personalizzati progettati da Google presenti nella IPU, ciascuno con 512 unità di logica aritmetica (ALU) per offre prestazioni superiori ed elaborare più di 3 trilioni di operazioni al secondo senza andare a consumare troppo la batteria dello smartphone.

Ultime Notizie