Inteligencia artificial

¿Son las consecuencias involuntarias (o voluntarias) del uso de la inteligencia artificial por parte de Facebook y otras redes sociales amorales, inmorales o crímenes de lesa humanidad?

Aunque pregunta retórica, como señala nuestro amigo Aníbal que ha enviado esta nota, va al meollo de la crisis existencial de nuestros días. Un grupo contado ejecutivos de la tecnología vienen manejando cada aspecto de nuestras vidas –desde cómo estudiamos y trabajamos, a cómo compramos, ahorramos, nos conocemos, amamos.

También tienen la capacidad de imponer modelos políticos y económicos que perpetúen su poder. Con este fin impulsan lo que el propagandista nazi Joseph Goebbels llamó la Gran Mentir (““Si dices una mentira lo suficientemente grande y sigues repitiéndola, la gente eventualmente llegará a creerla”) hecho que se ha evidenciado en el papel que jugó Facebook en impulsar las teorías racistas de conspiración que forman la base dorsal del trumpismo. 

Karen Haoa en la revista Technology Review entrevista (en inglés) a Joaquín Quiñonero Candela, capo de inteligencia artificial de Facebook (en inglés) y creador de este monstruo Frankenstein. 

Apartes. 

**********

“Para la turba de miles que atacó el Capitolio de EUA en enero, organizados en parte en Facebook y alimentados por las mentiras sobre una elección robada que se habían extendido por toda la plataforma, estaba claro por mis conversaciones que el equipo de IA responsable no había logrado avanzar contra la desinformación y la incitación al odio porque nunca había hecho de esos problemas su foco principal. Más importante, me di cuenta de que si lo intentaba, estaría preparado para el fracaso.

“La razón es simple. Todo lo que la empresa hace y decide no hacer surge de su única motivación: el insasiable deseo de crecimiento de Zuckerberg. La experiencia en IA de Quiñones Candela impulsó ese crecimiento. Su equipo se encasilló en apuntar al sesgo de la IA, como he aprendí en mi reportaje, porque prevenir tal sesgo ayuda a la empresa a evitar la regulación propuesta que, si se aprueba, podría obstaculizar ese crecimiento. El liderazgo de Facebook también ha debilitado o detenido repetidamente muchas iniciativas destinadas a limpiar la información errónea en la plataforma porque hacerlo socavaría ese crecimiento.

“[…] este enfoque pronto causó problemas. Los modelos que maximizan el compromiso también favorecen la controversia, la desinformación y el extremismo: en pocas palabras, la gente prefiere cosas escandalosas. A veces, esto enciende las tensiones políticas existentes. El ejemplo más devastador hasta la fecha es el caso de Myanmar, donde las noticias falsas virales y el discurso de odio sobre la minoría musulmana rohingya llevaron el conflicto religioso del país a un genocidio de grandes proporciones. Facebook admitió en 2018, después de años de restar importancia a su papel, que no había hecho lo suficiente “para ayudar a evitar que nuestra plataforma se utilice para fomentar la división e incitar a la violencia fuera de línea”.

Quiñonero Candela se ha disculpado, señala el reportaje. Algunos lo podrían interpretar como palabras vanas dado que el mal ya está hecho.

Technology Review (en inglés)