Noticias, Gadgets, Android, Móviles, Descargas de Aplicaciones

Chip tensor de Google: ¿Por qué Google abandonó Qualcomm por su cuenta …

Cuando Google lanzó los teléfonos Pixel en 2016, muchos vieron esto como el esfuerzo de la compañía por establecer nuevos estándares para lo que debería ser un teléfono Android. Es posible que Google haya podido cambiar los estándares de lo que pueden hacer las cámaras de los teléfonos, pero la compañía seguramente no ha cambiado los teléfonos inteligentes … todavía. Ingrese, Google Tensor, un chip fabricado por Google y que reemplazará a los SoC de Qualcomm que han alimentado los teléfonos Pixel durante los últimos cinco años. ¿Qué sabemos sobre los chips Tensor hasta ahora? No mucho, pero podemos hacer algunas conjeturas.

¿Qué es Google Tensor?

Como se mencionó anteriormente, Google Tensor es un sistema en chip, lo que significa que será el cerebro de los dispositivos Pixel 6. Es un chipset octa-core construido sobre el proceso de fabricación de 5 nanómetros de Samsung usando arquitecturas de procesador de ARM. Al ser el desarrollador de Android, esto le da a Google una especie de ventaja indebida en el espacio de los teléfonos inteligentes, ya que la compañía puede adaptar Android para hacer que el nuevo chip Tensor funcione mejor que otros. Pero, ¿por qué un nuevo chip es diferente?

Este es el por qué…

Se podría argumentar que Google no tiene experiencia en hardware, y la historia de la compañía con los teléfonos Pixel hasta ahora realmente no nos da confianza, excepto que si bien Google es nuevo en la construcción de nuevos teléfonos, no es ajeno a la construcción de nuevos chips. El Tensor de Google lleva el nombre de algo de lo que es posible que haya oído hablar antes: la Unidad de procesamiento de tensor (TPU), un chip que es bastante popular en el espacio del centro de datos.

Así es como Google define las TPU:

“Las unidades de procesamiento tensorial (TPU) son circuitos integrados específicos de aplicaciones (ASIC) desarrollados a medida por Google que se utilizan para acelerar las cargas de trabajo de aprendizaje automático (ML). Las TPU de Cloud te permiten acceder a las TPU desde Compute Engine, Google Kubernetes Engine y AI Platform “.

Más de la mitad de los algoritmos de IA y ML que procesan nuestros teléfonos hoy en día ocurren en la nube. Es por eso que el Asistente de Google o Alexa muestran una animación de almacenamiento en búfer cuando les das un comando. Envían su comando de voz a la nube, donde un procesador que es significativamente más potente que el de su teléfono procesa el comando y le dice al teléfono qué hacer.

Google Pixel 6 Pro

Reclamación número uno …

Lo que nos lleva a la primera afirmación que Google está haciendo con el nuevo chip Tensor de Google: que hará más procesamiento de IA “en el dispositivo”.

Cuando sumas dos y dos, eso es más que creíble en este momento. Las TPU se diseñaron para procesar AI y ML y posiblemente reemplazar las poderosas GPU que se encargan del procesamiento de AI en los centros de datos en la actualidad. Aquí hay un extracto de una comparación de GPU vs TPU realizada por la empresa de TI con sede en Bangalore Mphasis:

“Los resultados indican que las aceleraciones (de las TPU) en un factor de más de 15 son posibles, pero parecen tener un costo. En primer lugar, el precio de la TPU v3-8 es 5,5 veces mayor que el del P100, lo que en sí mismo suena alarmante; sin embargo, calcular la cantidad de capacitación por dólar produce un ahorro monetario de más del 64% ya que la TPU es mucho más rápida “.

Básicamente, Google sabe qué tipo de potencia se requiere para procesar algoritmos de IA. Lo que significa que, en muchos casos, el chip Tensor no necesitará enviar datos a la nube. Ya sabe cómo procesar los comandos.

Sin embargo, controle sus expectativas, porque no hay forma de que un chip dentro del pequeño teléfono inteligente pueda igualar lo que hace un chip del centro de datos. En pocas palabras, los teléfonos simplemente no pueden proporcionar el mismo margen térmico y el mismo rendimiento requeridos para el rendimiento a nivel del centro de datos, al menos no hasta que diseñamos los chips que ejecutaron la IA de Iron Man en Marvel’s Avengers.

Una preocupación común con los asistentes de voz es que debido a que nos escuchan todo el tiempo para que puedan reaccionar cuando dices “Ok, Google” o “Alexa”, es posible que nos estén grabando y enviando datos a la nube. Si pudieran realizar funciones en el dispositivo, en primer lugar, no necesitarían registrar y enviar datos a la nube. Por supuesto, Google no eliminará por completo la necesidad de enviar datos a la nube en este momento, pero esto es un comienzo. Apple también anunció, durante la WWDC a principios de este año, que Siri realizará más funciones en el dispositivo.

Esto también hace que los asistentes de voz sean más rápidos e intuitivos de usar.

Reclamación número dos …

También se supone que el chip Tensor mejora las fotos, los videos, la búsqueda y los subtítulos en los teléfonos inteligentes. Que es otra afirmación que es más que creíble.

¿Por qué? Porque Google ya ha demostrado que puede hacer maravillas con el software de la cámara. Las cámaras de los teléfonos Pixel han sido mejores que los dispositivos de la competencia con una multitud de cámaras desde que se lanzaron por primera vez. Ahora imagina lo que podrían haber hecho si, como el Asistente de Google, tu cámara también pudiera almacenar en búfer durante un segundo cada vez que hagas clic en el botón del obturador, solo para poder enviar la foto a la nube y procesarla allí.

El chip Tensor debería permitir que Google lleve al menos parte de su peso de IA al teléfono inteligente y lo use para mejorar las fotos y videos en los que hace clic con ellos. Lo mismo funciona para los subtítulos y la búsqueda también.

¿Has oído hablar de TensorFlow?

‘Tensor’ no es un término que Google simplemente usa. La compañía anunció TPU en 2018 y el chip Tensor hace solo unos días, pero antes de todo eso había otro: TensorFlow.

Este es un lenguaje de aprendizaje automático de código abierto que Google diseñó y lanzó en 2015. Vea la imagen a continuación.

En realidad, esto fue generado por una plataforma basada en inteligencia artificial llamada DeepDream, que fue construida por un ex ingeniero de Google usando TensorFlow. De hecho, Google realizó una exhibición de obras de arte creadas por tales herramientas de inteligencia artificial en 2016. TensorFlow también es fundamental en las implementaciones de inteligencia artificial que hace Google en la búsqueda, Gmail y muchos de sus otros productos.

Según los informes de Hacker News y StackOverflow, los desarrolladores que podían construir usando TensorFlow tenían demanda durante 2020. Cuando TensorFlow cumplió tres años, Google lanzó TPU y justo después de cumplir cinco llegó Google Tensor.

Todo esto simplemente significa que cada vez se crean más aplicaciones con TensorFlow, y los chips Tensor ya están diseñados para aprovechar al máximo lo que este lenguaje puede lograr. Apunta a Google. De nuevo.

Si todo eso te suena familiar, es porque es casi exactamente como funcionan las plataformas de Apple. La codificación para Mac, iOS y iPadOS se prefiere en el lenguaje de programación Swift de Apple, mientras que la compañía también diseña sus propios chips, como Bionic y M1.

Gracias por leer hasta el final de este artículo. Para obtener más contenido tecnológico informativo y exclusivo, como nuestra página de Facebook

Tabla de Contenido