Google tensor-chip: waarom heeft Google Qualcomm alleen gedumpt…

Toen Google in 2016 Pixel-telefoons lanceerde, zagen velen dit als de poging van het bedrijf om nieuwe normen te stellen voor wat een Android-telefoon zou moeten zijn. Google is misschien in staat geweest om de standaarden te veranderen van wat telefooncamera’s kunnen doen, maar het bedrijf heeft zeker niet van smartphone veranderd… nog niet. Enter, Google Tensor, een chip gemaakt door Google en ingesteld om de Qualcomm SoC’s te vervangen die de afgelopen vijf jaar Pixel-telefoons van stroom hebben voorzien. Wat weten we tot nu toe over Tensor-chips? Niet veel, maar we kunnen wel raden.

Wat is Google Tensor?

Zoals hierboven vermeld, is Google Tensor een systeem-op-chip, wat betekent dat het het brein zal zijn van Pixel 6. Het is een octa-core chipset die is gebouwd op het 5-nanometerproductieproces van Samsung met behulp van processorarchitecturen van ARM. Als ontwikkelaar van Android geeft dit Google iets van een ongepast voordeel op het gebied van smartphones, omdat het bedrijf Android kan aanpassen om de nieuwe Tensor-chip beter te laten presteren dan andere. Maar waarom is een nieuwe chip anders?

Dit is waarom…

Je zou kunnen stellen dat Google geen hardware-expertise heeft, en de geschiedenis van het bedrijf met Pixel-telefoons tot nu toe geeft ons niet echt vertrouwen, behalve dat hoewel Google nieuw is in het bouwen van nieuwe telefoons, het geen onbekende is in het bouwen van nieuwe telefoons. De Tensor van Google is vernoemd naar iets waar je misschien al eerder van hebt gehoord: de Tensor Processing Unit (TPU), een chip die behoorlijk populair is in de datacenterruimte.

  

Dit is hoe Google TPU’s definieert:

“Tensor Processing Units (TPU’s) zijn op maat ontwikkelde applicatiespecifieke geïntegreerde circuits (ASIC’s) door Google die worden gebruikt om machine learning (ML) workloads te versnellen. Met Cloud TPU’s heb je toegang tot TPU’s vanuit Compute Engine, Google Kubernetes Engine en AI Platform.”

Meer dan de helft van de AI- en ML-algoritmen die onze telefoons tegenwoordig gebruiken, vindt plaats in de cloud. Daarom laat Google Assistant of Alexa een bufferanimatie zien als je ze een commando geeft. Ze sturen je spraakopdracht naar de cloud, waar een processor die aanzienlijk krachtiger is dan die in je telefoon de opdracht verwerkt en de telefoon vertelt wat hij moet doen.

Google Pixel 6 Pro

Bewering nummer één…

Dat brengt ons bij de eerste claim die Google maakt met Google’s nieuwe Tensor-chip: dat het meer AI-verwerking “op het apparaat” zal doen.

Als je twee en twee bij elkaar optelt, is dat op dit moment meer dan geloofwaardig. TPU’s zijn ontworpen om AI en ML weer te geven en mogelijk de krachtige GPU’s te vervangen die tegenwoordig AI-rendering in datacenters afhandelen. Hier is een fragment uit een GPU versus TPU-vergelijking door het in Bangalore gevestigde IT-bedrijf Mphasis:

“De resultaten geven aan dat versnellingen (van TPU’s) met een factor van meer dan 15 mogelijk zijn, maar blijkbaar kosten met zich meebrengen. Allereerst is de prijs van de TPU v3-8 5,5 keer hoger dan die van de P100, wat op zich alarmerend klinkt; het berekenen van de hoeveelheid training per dollar levert echter een geldbesparing op van meer dan 64%, omdat de TPU veel sneller is.”

Kortom, Google weet wat voor kracht er nodig is om AI-algoritmen te verwerken. Dat betekent dat de Tensor-chip in veel gevallen geen data naar de cloud hoeft te sturen. U weet al hoe u de opdrachten moet verwerken.

Houd uw verwachtingen echter onder controle, want een chip in een kleine smartphone kan op geen enkele manier tippen aan wat een chip in het datacenter doet. Simpel gezegd, telefoons kunnen gewoon niet dezelfde thermische hoofdruimte en prestaties bieden die nodig zijn voor prestaties op datacenterniveau, tenminste niet totdat we de chips hebben ontworpen die Iron Man’s AI in Marvel’s Avengers draaiden.

Een veelvoorkomend probleem met stemassistenten is dat, omdat ze de hele tijd naar ons luisteren, zodat ze kunnen reageren als je “Ok, Google” of “Alexa” zegt, ze ons misschien opnemen en gegevens naar de cloud sturen. Als ze functies op het apparaat zouden kunnen uitvoeren, zouden ze in de eerste plaats niet hoeven te loggen en gegevens naar de cloud te sturen. Natuurlijk zal Google op dit moment de noodzaak om gegevens naar de cloud te verzenden niet volledig elimineren, maar dit is een begin. Apple kondigde eerder dit jaar tijdens WWDC ook aan dat Siri meer functies op het apparaat zal brengen.

Dit maakt stemassistenten ook sneller en intuïtiever in gebruik.

Bewering nummer twee…

De Tensor-chip moet ook foto’s, video’s, zoeken en ondertitels op smartphones verbeteren. Dat is een andere bewering die meer dan geloofwaardig is.

Waarom? Want Google heeft al laten zien dat het wonderen kan doen met camerasoftware. Pixel-telefooncamera’s zijn beter geweest dan concurrerende apparaten met een groot aantal camera’s sinds ze voor het eerst werden uitgebracht. Stel je nu eens voor wat ze hadden kunnen doen als je camera, net als de Google Assistent, ook elke keer dat je op de ontspanknop klikt een seconde zou kunnen bufferen, zodat hij de foto naar de cloud kon sturen en daar kon verwerken.

De Tensor-chip zou Google in staat moeten stellen om ten minste een deel van zijn AI-gewicht naar de smartphone te brengen en deze te gebruiken om de foto’s en video’s waarop u klikt, te verbeteren. Hetzelfde werkt ook voor ondertitels en zoeken.

Heb je al gehoord van TensorFlow?

‘Tensor’ is niet een term die Google zomaar gebruikt. Het bedrijf kondigde in 2018 TPU aan en de Tensor-chip nog maar een paar dagen geleden, maar daarvoor was er nog een: TensorFlow.

Dit is een open source machine learning-taal die Google in 2015 heeft ontworpen en uitgebracht. Zie de afbeelding hieronder.

Dit werd eigenlijk gegenereerd door een op AI gebaseerd platform genaamd DeepDream, dat werd gebouwd door een voormalige Google-ingenieur met TensorFlow. In feite hield Google in 2016 een tentoonstelling van kunstwerken die met dergelijke AI-tools zijn gemaakt. TensorFlow staat ook centraal in Google’s AI-implementaties in zoeken, Gmail en veel van zijn andere producten.

Volgens rapporten van Hacker News en StackOverflow was er in 2020 veel vraag naar ontwikkelaars die konden bouwen met TensorFlow. Toen TensorFlow drie jaar oud werd, bracht Google TPU uit en net na vijf jaar kwam Google Tensor.

Dit alles betekent simpelweg dat er steeds meer applicaties worden gebouwd met TensorFlow en dat Tensor-chips al zijn ontworpen om volledig te profiteren van wat deze taal kan bereiken. Wijs naar Google. Opnieuw.

Als dat allemaal bekend klinkt, komt dat omdat het bijna precies is hoe de platforms van Apple werken. Coderen voor Mac, iOS en iPadOS heeft de voorkeur in de programmeertaal Swift van Apple, terwijl het bedrijf ook zijn eigen chips ontwerpt, zoals de Bionic en M1.

Bedankt voor het lezen tot het einde van dit artikel. Voor meer informatieve en exclusieve technische inhoud, zoals onze Facebook-pagina

0 Shares:
You May Also Like