Daniela Sánchez / De togas en androides

AutorDaniela Sánchez

Detrás del estrado donde siempre se sentó un humano, postrado e indolente, hoy se escucha un tintineo. Las luces se prenden y apagan mientras una pantalla va revelando el veredicto; justo y preciso.

Apple anunció esta semana su nuevo sistema algorítmico de detección de imágenes sexuales infantiles. Un Sistema Experto de Machine Learning que detecta patrones en las imágenes de cada dispositivo y aquellas que se almacenan en la Apple Cloud. La resistencia llegó de inmediato, cuando el CEO de WhatsApp saltó en Twitter a reprochar el sistema. La audacia de este hombre al señalar un menoscabo a la "Privacidad", con esos dedos sucios de ironía.

Le doy una buena leída al berrinche de Facebook contra Apple y me siento con el pensamiento. ¿Qué es la privacidad y hasta dónde debe llegar? En este balance entre la seguridad y la intimidad, ¿qué papel pueden jugar los algoritmos?

Cuando el humano se siente violentado en su privacidad el factor esencial no es la información que se compartió, la información viaja de múltiples maneras y siempre, siempre habrá filtraciones. El factor esencial es "Quién". ¿Quién tuvo acceso a esa información? ¿Con qué fines la utilizó? Nuestra reacción inmediata es pensar en los lados más viles y oscuros del Sapiens. Mi fotografía está en manos de ese simio que puede usarla para... los peores fines de corte biológico. ¡Qué vergüenza! ¡Qué asco! ¡Qué humillación! Nuestras reacciones tienden a ser primitivas y, por tanto, altamente emotivas.

Somos tan cuidadosos con nuestro hipotálamo excitado que preferimos encriptar nuestras imágenes que permitir que se monitoreen para desmantelar la trata de blancas y el abuso infantil entre otros crímenes que se esconden ahí detrás de la interfaz de nuestro celular. Y sé lo que estás pensando. ¿Quién me asegura que el Estado va a tener cuidado con mi información? Y la verdad es que yo no metería las manos al fuego por ningún policía ni juez, ¡son humanos!

Pero sí apuesto por una nueva forma de monitoreo donde la última revisión la tenga la Inteligencia Artificial, porque a mí no me importa que un Sistema Experto se eche mis fotos y videos si así va a detectar el tráfico de miles de niños abusados y mujeres violentadas.

Se necesita un Estado hábil en los estándares éticos del desarrollo de...

Para continuar leyendo

Solicita tu prueba

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR