«Errar es humano, pero para hacer un verdadero desastre se necesita una computadora.»
Pressenza reportó recientemente cómo los algoritmos utilizados por los medios sociales estaban creando noticias falsas sin intervención humana.
No es el único cyberlío.
«Instagram utiliza ‘I will rape you’ [«Te violaré»] como anuncio de Facebook en el último error de algoritmo»: ‘Instagram usó una imagen de usuario que incluía el texto «Te violaré antes de que te mate, puta sucia» para anunciar su servicio en Facebook, el último ejemplo de algoritmos de medios sociales que potencian el contenido ofensivo. The Guardian
Y de nuevo en Facebook, esta vez un experimento ampliamente difundido en los medios de comunicación como una amenaza de AI [Inteligencia artificial] parecía haber sido (esto según Fb) exagerado: ‘Facebook apagó un par de sus robots de inteligencia artificial después de que inventaron su propio lenguaje.’
Los investigadores de Facebook Artificial Intelligence Research construyeron un sitio de chat [chatbot] a principios de este año que estaba destinado a aprender a negociar imitando el comercio humano y el trueque.
“Pero cuando la red social emparejó dos de los programas, apodados Alice y Bob, para comerciar entre sí, comenzaron a aprender su propia forma extraña de comunicación, la conversación chatbot «llevó a divergencias del lenguaje humano a medida que los agentes desarrollaban su propio lenguaje para negociar», dijeron los investigadores. The Telegraph
¿Quién se siente suficientemente claro acerca de este evento como para juzgar lo peligroso que podría ser que los robots empiecen a comunicarse en un idioma que sólo ellos entienden?
La tecnología está entrando en una nueva etapa que escapa a los códigos morales que intentan regular el comportamiento humano porque muy pocas personas (si las hay) pueden realmente entender las consecuencias. Esto hace que la gente se desconecte y lo deje en manos de los expertos. ¿Quiénes son los expertos?
Muchos están celebrando el fin de la ciencia tal como la conocemos. Gracias a Big Data (Grandes Datos) ahora no es necesario proponer una hipótesis, recopilar datos suficientes, hacer un análisis estadístico y decidir si la hipótesis fue probada o no.
En «La guerra de Facebook contra el libre albedrío: Cómo la tecnología hace redundante nuestras mentes», Franklin Foer describe con gran detalle cómo el análisis de enormes cantidades de datos recopilados por los medios sociales está encontrando mecánicamente patrones y llegando a conclusiones sobre el comportamiento humano (pero no exclusivamente) sin la intervención de las mentes:
«Para la totalidad de la existencia humana, la creación del conocimiento era un proceso de prueba y error. Los humanos inventarían teorías sobre cómo funcionaba el mundo, y luego examinarían la evidencia para ver si sus hipótesis sobrevivían o se estrellaban al exponerse a la realidad. Los algoritmos dan vuelta el método científico – los patrones emergen de los datos, de las correlaciones, sin guiarse por hipótesis. Eliminan a los humanos de todo el proceso de investigación. Al escribir en Wired, Chris Anderson, entonces redactor jefe, argumentó: «Podemos dejar de buscar modelos. Podemos analizar los datos sin hipótesis sobre lo que podrían mostrar. Podemos arrojar los números a los clusters de computación más grandes que el mundo haya visto jamás y dejar que los algoritmos estadísticos encuentren patrones donde la ciencia no puede», The Guardian.
El análisis de rostros por algoritmos podría detectar la orientación sexual de las personas, según una investigación de la Universidad de Stamford reportada por el Economist.
El poder de IA para escoger patrones ahora se dirige a asuntos más íntimos. Las investigaciones de Michal Kosinski y Yilun Wang en la Universidad de Stanford han demostrado que la visión artificial puede inferir la orientación sexual mediante el análisis de los rostros de las personas. Los investigadores sugieren que el software hace esto al captar las sutiles diferencias en la estructura facial. Con los conjuntos de datos correctos, dice el Dr. Kosinski, sistemas similares de IA podrían ser entrenados para detectar otros rasgos íntimos, como el CI o las opiniones políticas. Sólo porque los seres humanos no sean capaces de ver las señales en los rostros no significa que las máquinas no puedan hacerlo».
Como era de esperar, la comunidad LGBT consideró que esto era problemático. Los resultados no son 100% exactos, pero en el futuro los empleadores y las autoridades pueden utilizar estos algoritmos para hacer juicios sobre las personas.
La intencionalidad no se puede desconectar
La conciencia humana percibe el mundo, así como a sí misma y estructura esas percepciones en un modelo de «realidad» comparando los nuevos datos con la memoria y añadiendo elementos del tono emocional del momento y una dirección omnipresente más profunda, lejos del dolor y el sufrimiento y buscando la felicidad y el sentido. A diferencia de los procesos mecanicistas (p. ej. Newtonianos) y probabilistas (p. ej. Caos, cuántico) esta intencionalidad es «atraída» por una imagen lanzada al futuro. A pesar de toda la violencia y deshumanización que reina en nuestro sistema actual, donde la ideología dominante promueve el individualismo y el egoísmo, existe la intención de que la humanidad se mueva hacia el amor y la compasión. Puede que no sea visible en los medios de comunicación, pero sí en las comunidades y en la respuesta a los desastres. Por lo tanto, cuando los científicos proponen una hipótesis, no intentan simplemente ver qué se correlaciona con qué, sino que buscan una forma de salir del dolor y el sufrimiento. La hipótesis puede resultar errónea, pero en ese caso el científico buscará otras formas de resolver el problema. Porque a los seres humanos les importa.
Incluso cuando en algunas personas la estructuración conduce a la violencia podemos encontrar algún elemento de autopreservación o compasión hacia ellos mismos o hacia su propia comunidad.
No hay duda de que el análisis mecánico de Big Data arrojará perspectivas asombrosas sobre diferentes correlaciones, pero no hay garantía de que ninguna de ellas sirva al propósito de superar problemas esenciales para la humanidad. Porque a las máquinas no les importa. Sólo aquellos que los programan pueden hacerlo. Y si la intención principal es hacer dinero, eso es lo que las máquinas buscarán.
El análisis médico de Big Data ya es muy prometedor, por lo que no se trata de desechar al bebé con el agua del baño.
Las máquinas automáticas asesinas están programadas para matar, un soldado entrenado para matar todavía es capaz de sentir compasión, el robot asesino no lo hace. Tenemos varios ejemplos de personas que impiden un holocausto nuclear cuando una máquina no lo hubiera hecho. Tal es el caso del recientemente fallecido Stanislav Petrov, un oficial militar soviético que decidió desechar una computadora advirtiendo que Estados Unidos había lanzado un ataque nuclear contra la Unión Soviética como falsa alarma. La intencionalidad incluye en su construcción de ‘realidad’ lo que otros pueden estar procesando, ‘pienso, por lo tanto piensas’, ‘me preocupo por lo tanto puedes preocuparte’. Puede que esté mal, pero queda una opción.
Además, la suposición de que la información evaluada por los algoritmos es fiable es incorrecta. La gente no introduce sus verdaderos pensamientos e intenciones en los medios sociales, sino que ellos, nosotros, introducen una imagen parcial y sesgada de sí mismos de acuerdo con ciertas tendencias e intenciones sociales. Y como hemos visto anteriormente, incluso los algoritmos más sofisticados son capaces de cometer errores.
Tal vez la paranoia que los robots tomarán el control del mundo sea todavía demasiado improbable de contemplar ya que significaría que pueden desarrollar intencionalidad. Puesto que, por el momento, la única intención humana es dar dirección a Big Data debemos concentrarnos en eliminar la guerra, la venganza y la avaricia, todas ellas arraigadas en el miedo, y crear acuerdos internacionales para poner los datos al servicio de la superación del dolor y el sufrimiento. La dictadura de los Grandes Datos no es una abstracción cibernética, las personas que la manejan tienen nombres, rostros e intenciones, y la gente común puede llegar a ellos para exigir un uso humanizado de nuestra información.