La Inteligencia Artificial es una especie de alquimia moderna. Promete poner la chispa de la humanidad en objetos inanimados. Dice que puede transmutar el plomo en oro, tomando montones de datos sin forma y creando mágicamente nuevos conocimientos a partir de ellos.

Por supuesto que es una exageración, y lo sabemos. Todos hemos visto el proyecto de inteligencia artificial más elogiado y de alto perfil, Watson de IBM, para inmediatamente después, descender a la irrelevancia y la incompetencia pública.

El sistema de preguntas y respuestas de Watson ganó el programa de televisión Jeopardy en 2011, y estaba a punto de resolver todos los problemas del mundo, incluidos la sequía, el hambre, el cáncer y cómo encontrar buena música en línea.

Pero ese proyecto contra el cáncer, con el instituto estadounidense Memorial Sloan Kettering, no salió bien. Después de siete años, se supo que el sistema había estado dando consejos inseguros. En su defensa, el instituto dijo que los consejos ofrecidos por la IA eran solo hipotéticos, ya que nunca confiaron en Watson para tratar a pacientes reales, y hoy en día las únicas personas que todavía dedican tiempo para hablar con Watson son las personas de mantenimiento de centros de datos .

Pero, ¿y si esto fuera una estratagema deliberada, para distraernos del proyecto real, cuando la IA muestre su verdadero rostro malvado? Es un poco fantástico, pero efectivamente ha habido un lado oscuro en los desarrollos de IA en todos los grandes jugadores de la nube, irónicamente incluida la compañía que solía decir que no sería malvado.

El proyecto de inteligencia artificial de Google se encontró incapaz de manejar la simple tarea de hacer que la inteligencia artificial no fuera racista. La investigadora estrella de IA ética, Timnit Gebru, señaló el problema de que "los grandes sistemas de IA tendrían un sesgo inherente, específicamente racista y sexista, y podrían ser engañosos". En lugar de enfrentar el problema, Google la despidió a ella y a su colega Margaret Mitchell, quien fundó el departamento de inteligencia artificial ética de Google.

Hasta ahora, los esfuerzos de Google para relanzar su trabajo ético de inteligencia artificial suenan egoístas y poco convincentes.

Si eso sucedió en Google, nadie debería sorprenderse de lo que sucedió en Facebook. En 2016, la compañía fue pillada con las manos en la masa, utilizando inteligencia artificial para impulsar programas políticos de derecha a cambio de dinero, y compartió datos con Cambridge Analytics para otros propósitos de moralidad dudosa.

La compañía hizo un movimiento de relaciones públicas que salvó las apariencias y estableció un programa de inteligencia artificial responsable con un nombre amigable (Sociedad y Laboratorio de Inteligencia Artificial o SAIL), supuestamente para frenar este tipo de actividad. Años más tarde, se supo que los sistemas de inteligencia artificial en Facebook ayudaron a alimentar el genocidio contra los musulmanes rohingya en Myanmar, y todavía están alimentando el pozo social de los anti-vacunas, los negacionistas del Holocausto y los conspiradores.

La razón es bastante clara, por mucho que los defensores de Facebook se froten las manos al respecto en. Facebook gana dinero con el odio y las mentiras brindan precisamente eso. Deshacerse del odio y las mentiras en Facebook sería malo para los negocios, por lo que la plataforma promueve el contenido más extremo.

“Cuando estás en el negocio de maximizar el compromiso, no estás interesado en la verdad. No importa el daño, la división o la conspiración. De hecho, cuanto más mejor ”, dijo a Karen Hao Hany Farid, profesor de la Universidad de California, Berkeley, que colabora con Facebook, para un artículo de MIT Technology Review.

Es profundamente irónico. Facebook quiere decir que está haciendo algo, pero si sus sistemas de inteligencia artificial logran eliminar las mentiras, les disparan porque reduce el tráfico. Por otro lado, según Hao, cuando el entonces presidente Trump arremetió contra el supuesto sesgo anti-conservador en la plataforma, Mark Zuckerberg aumentó personalmente el presupuesto del equipo de IA y les encargó aplacar a la derecha para evitar la amenaza de la regulación de las redes sociales.

Todo esto es un conjunto de ejemplos del problema fundamental: la IA no es tanto una fuente de alquimia, sino un genio, que puede conceder deseos. Pero si podemos hacer las preguntas con claridad, y preferiblemente convertirla en un juego, como el Go o el Ajedrez, como hizo Google recientemente con el diseño de chips, la IA puede dar resultados.

No es una exageración. Cuando se produjo la pandemia de Covid-19, había grandes esperanzas de que la IA ayudara con el diagnóstico y el tratamiento. Se lanzaron muchos proyectos y Michael Roberts, del Departamento de Matemáticas Aplicadas y Física Teórica de la Universidad de Cambridge examinó los resultados, descubrió que de los 300 artículos sobre el diagnóstico de Covid, ni uno solo fue útil. Algunos tenían errores estrepitosos, como el equipo que esperaba que la IA pudiera encontrar patrones ocultos en las radiografías de tórax de los pacientes con Covid. El sistema se entrenó en un conjunto de radiografías de adultos con Covid y niños sin él. Era inútil para detectar a Covid, pero podía identificar de manera confiable a un niño de un adulto.

Hay muchos otros problemas, incluidos investigadores secretos que no comparten sus algoritmos, lo que significa que no se conoce hasta donde llegan sus limitaciones, resultados que no se pueden reproducir y afirmaciones que no se pueden probar. E incluso si se pueden producir buenos resultados, con demasiada frecuencia surgen en un entorno, como la investigación ética en Facebook y Google, que está programado para ser rechazados.

Agradecemos cualquier resultado genuino de la investigación de la IA, pero hay días en los que analizamos el entusiasmo y la desesperación.