Los cambios del asistente de voz de Amazon

ONBARCELONA Echo Dot de Amazon
Amazon.com Inc. dijo el jueves que cambió los chips de su asistente de voz Alexa a unos propios de la empresa, diseñados a la medida, con el objetivo de hacer el trabajo más rápido y más barato. Estos chips vienen a suplantar los anteriores que había sido fabricados por Nvidia Corp.
El Cambio
Amazon anteriormente manejaba sus sistemas usando chips de Nvidia, pero ahora la «mayoría» pasará a usar su propio chip de computación llamado «Inferentia», el cual fue anunciado por primera vez en el año 2018.
Este chip de Amazon está diseñado con la finalidad de acelerar grandes volúmenes de tareas de aprendizaje automático, como traducir texto a voz o reconocer imágenes.
Pero las principales empresas de tecnología están abandonando cada vez más a los proveedores de silicio tradicionales para diseñar sus propios chips. Apple presentó el martes sus primeras computadoras Mac con sus propios procesadores centrales, alejándose de los chips Intel.
Amazon dijo que el cambio al chip Inferentia para algunos de sus trabajos de Alexa ha dado como resultado una latencia un 25% mejor, que es una medida de velocidad, a un costo 30% menor.
Amazon también ha dicho que «Rekognition», su servicio de reconocimiento facial basado en la nube, ha comenzado a adoptar sus propios chips Inferentia. Sin embargo, la compañía no dijo qué chips había utilizado anteriormente el servicio de reconocimiento facial o cuánto del trabajo se había trasladado a sus propios chips.
AWS Inferentia es el primer silicio personalizado de Amazon diseñado para acelerar las cargas de trabajo de aprendizaje profundo y es parte de una estrategia a largo plazo para cumplir con esta visión. AWS Inferentia está diseñado para proporcionar inferencia de alto rendimiento en la nube, reducir el costo total de la inferencia y facilitar a los desarrolladores la integración del aprendizaje automático en sus aplicaciones comerciales. El kit de desarrollo de software (SDK) de AWS Neuron, que consta de un compilador, tiempo de ejecución y herramientas de creación de perfiles que ayudan a optimizar el rendimiento de las cargas de trabajo para AWS Inferentia, permite modelos complejos de redes neuronales, creados y entrenados en marcos populares como Tensorflow, PyTorch y MXNet, que se ejecutarán mediante instancias Inf1 de Amazon EC2 basadas en AWS Inferentia.
Cómo funciona la línea Echo
Cuando los usuarios de dispositivos como la línea Echo de altavoces inteligentes de Amazon le hacen una pregunta al asistente de voz, la consulta se envía a uno de los centros de datos de Amazon para varios pasos de procesamiento.
Cuando las computadoras de Amazon procesan una respuesta, esa respuesta está en un formato de texto que debe traducirse a un formato audible para el asistente de voz.
Puedes pedirle a tu Alexa que coloque una canción en específico, o que abra la puerta en la que tu cerrajero Barcelona instaló la última tecnología en cerraduras inteligentes, o puedes también pedirle que ajuste la temperatura del termostato.
Realmente los beneficios que experimentarán los usuarios de Alexa con el cambio a los nuevos chips Inferentia será muchos, tales como mayor velocidad, mejor rendimiento debido a la reducción de la latencia, además una gran memoria.
Otras plataformas como por ejemplo Apple, también está cambiando sus chips por los propios, en lugar de utilizar los que venía utilizando por décadas, que eran los de Intel.
Veremos que otras innovaciones preparan las grandes corporaciones informáticas.