IA en la TV, ¿cómo es posible?

AutorEmmanuel León Vázquez

Aunque celulares como el Samsung Galaxy S24 ya ejecutan funciones de IA de manera local, algunos televisores fabricados en la década anterior, sumaron la tecnología para mejorar la imagen, sonido y reconocer la voz.

¿Cómo lo hicieron? Einar Alvarado, jefe de capacitación de Sony México; Iván Medina, director regional de planificación de TV de Hisense Américas; Amazon y Samsung explican el funcionamiento de la IA en un televisor y nos detallan algunas tendencias del sector.

¿Desde cuándo se usa la IA en TVs?

El boom de los televisores con IA ocurrió entre 2018 y 2022. En este tiempo, jugadores de la industria como Hisense y Sony lanzaron sus primeros modelos con esta tecnología. Como la primera serie Sony Bravia XR, lanzada en 2020, y el lineal Hisense ULED MiniLed que salió en 2022.

¿Qué permite al televisor ejecutar la IA?

El procesador es el mago detrás de esta innovación; en los casos de Hisense y Sony, los chips son de elaboración propia.

Sony dejó el manejo de la IA a su Cognitive Processor XR. Este chip realiza análisis cruzados de cada elemento de la imagen, identifica el punto focal y, con base en él, ajusta la imagen y el sonido para lograr mayor realismo y profundidad.

Hisense, por su lado, empleó los procesadores Hi-View, los cuales integran una Deep Neural Network, o red neuronal profunda, capaz de mejorar la imagen, sonido y el reconocimiento de voz a través del análisis de datos en tiempo real.

¿Cómo la IA ajusta la imagen del televisor?

El proceso es único en cada fabricante y, en el caso de Hisense, ocurre en cuatro etapas. Primero, un escalador replica diferentes secciones y duplica los cuadros por segundo de la imagen fuente para lograr una calidad 4K.

En la segunda etapa entra en juego la red neuronal. Esta herramienta busca las imperfecciones y establece los ajustes necesarios para mejorar la imagen.

Enseguida, en la fase tres, el componente llamado Super Resolution reconstruye la imagen en alta resolución a partir de los algoritmos. Finalmente, en la cuarta etapa, la función Noise Reduction reconoce y corrige las imperfecciones.

¿Qué pasa en el caso del sonido?

Nuevamente, el proceso es diferente entre los fabricantes. Los televisores recientes de Samsung, por ejemplo, escanean las propiedades acústicas de la habitación, es decir, a través de sus micrófonos escuchan el entorno.

Con esta información, las redes neuronales del chip Neural Quantum Processor identifican la distancia entre el televisor con otros elementos en...

Para continuar leyendo

Solicita tu prueba

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR