🛑Por favor: detengan la IA!✋🤖 – IA para Médicos #10

Disclaimer: Estas últimas tres semanas han sido vertiginosas en términos de novedades en el mundo de la IA. Desde la presentación de GPT-4 (que dejó casi obsoleto a ChatGPT!) hasta la apertura de APIs para poder hacer uso de esos modelos en aplicaciones externas, pasando por nuevos modelos (MUCHOS!) presentados por otras empresas y el bombazo que fue el anuncio de que ChatGPT ya es capaz de navegar por Internet, de hacer uso de archivos que le aportemos y hasta de integrarse a través de plugins con virtualmente cualquier aplicación de terceros.

Cada una de estas novedades, por sí sola merecería un newsletter y así me hubiera gustado hacerlo. Pero no he podido seguir ese ritmo alocado, por lo que me disculpo.

Dicho eso, hoy se produjo una noticia que no pude dejar pasar:

Hay que detener a la IA

Elon Musk (SpaceX, Tesla, Twitter, etc) Yoshua Bengio (pionero del deep learning), Stuart Russell (autor del libro de texto “Artificial Intelligence: a Modern Approach»), Steve Wozniak (Cofundador de Apple), Yuval Noah Harari (Autor de numerosos bestsellers), Emad Mostaque (Creador de Stable Diffusion), Gary Marcus (profesor emérito de la NYU) y más de 1000 distinguidos científicos firmaron una carta abierta en la que hacen un «llamamiento a todos los laboratorios de IA para que suspendan inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4”.

¿Falta alguien en esa lista?

Obviamente la gente de OpenAI (Sam Altman y compañía) y de Microsoft (socio estratégico y comercial de OpenAI) faltan en ese petitorio.

Pero llama la atención que tampoco figure nadie de Meta (Facebook para los amigos). Y el propio Yann Le Cun (Jefe de IA en Facebook y, junto con Hinton y Bengio, conocidos como los «Padrinos de la IA» y «Padrinos del Aprendizaje Profundo») salió en Twitter a despegarse de la iniciativa:

¿Estará Facebook por liberar algo mejor que GPT-4? 🤔

Hagan sus apuestas…

Pero… por qué la petición?

La carta argumenta que los sistemas de IA con inteligencia que compitan con la humana plantean riesgos significativos para la sociedad y la humanidad, como reconocen los principales laboratorios de IA y extensas investigaciones.

Por ello, solicitan a todos los laboratorios de IA que pongan inmediatamente en pausa durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que el GPT-4, y a los desarrolladores de IA que colaboren con los responsables políticos para acelerar el desarrollo de sistemas sólidos de gobernanza de la IA. Vamos, que aprieten el freno hasta tener maneras de contener el tsunami!

Durante la pausa, los laboratorios de IA y los expertos independientes deberían desarrollar y aplicar protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada que sean auditados y supervisados por expertos externos independientes.

Subrayan la necesidad de reorientar la investigación y el desarrollo de la IA para que los sistemas de vanguardia actuales sean más precisos, seguros, interpretables, transparentes, robustos, alineados, fiables y leales.

Finalmente concluyen que la humanidad puede disfrutar de un futuro floreciente con la IA si la sociedad toma las precauciones necesarias y evita precipitarse desprevenida en una caída.

Hacemos un llamamiento a todos los laboratorios de IA para que suspendan inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4.


¿Cuáles son los riesgos que supone este tipo de IAs?

La lista de riesgos incluye, aunque no está limitada a, los siguientes:

  1. Inundación de los canales de información con propaganda y fake news generadas por máquinas.
  2. Automatización de puestos de trabajo, no solo de tareas repetitivas sino también muchos trabajos satisfactorios para los humanos.
  3. Desarrollo de mentes no humanas que, con el tiempo, podrían superar en número, inteligencia, volver obsoletos y hasta reemplazar a los humanos.
  4. Riesgo de pérdida de control de la civilización debido a los sistemas de IA.
  5. Aparición de modelos de “caja negra” más grandes e impredecibles con capacidades emergentes.
  6. Ausencia de protocolos de seguridad para el diseño y desarrollo de IA avanzada.
  7. Falta de responsabilidad por daños causados por la IA. ¿Quién se debe hacer cargo de esos daños?
  8. Dramáticos trastornos económicos y políticos (especialmente para la democracia) que causará la IA.
Post AI Apocalypse
Post AI Apocalypse – Imagen propia generada con Lexica

Vamos a ver un poco de los puntos 2 y 8.

Automatización de empleos:

Uno de los riesgos que plantean los sistemas avanzados de IA es que pueden automatizar una amplia gama de empleos, incluidos los que actualmente se consideran satisfactorios para los seres humanos.

Esta automatización puede conducir al desempleo generalizado, la desigualdad y el malestar social, ya que muchas personas tendrán dificultades para adaptarse a nuevos puestos de trabajo o reciclarse para adquirir nuevas habilidades.

Además, esta automatización también puede conducir a una pérdida de significado y propósito de vida para las personas que ven sus puestos de trabajo sustituidos por máquinas.

Dramáticos trastornos económicos y políticos:

Los sistemas avanzados de IA pueden provocar trastornos económicos y políticos dramáticos, especialmente en los ámbitos de la democracia y la gobernanza. Por ejemplo, los sistemas de IA pueden utilizarse para manipular la opinión pública (léase Cambridge Analytica, Twitter, etc)suprimir la disidencia (movimientos de “cancelación”) y socavar las instituciones democráticas.

También pueden utilizarse para crear nuevas formas de desigualdad, concentración de poder y malestar social.

Además, la adopción generalizada de sistemas de IA puede tener un impacto significativo en la economía mundial, dando lugar a nuevas formas de competencia, desplazamiento de puestos de trabajo y desempleo masivo.

El concepto de Renta Básica Universal (Universal Basic Income) cobra cada día más sentido: si la IA y los Robots desplazan y despojan a grandes masas de humanos de sus trabajos, serán las empresas dueñas de esas IAs y Robots quienes debieran pagar un impuesto con el que se garantice un sueldo básico a todas las personas (humanas).

Para mitigar estos riesgos, los responsables políticos deben desarrollar nuevos sistemas de gobernanza capaces de regular y controlar el desarrollo y despliegue de los sistemas de IA de forma responsable y ética.

Es esta pausa una solución? Servirá? Estamos a tiempo de parar el tsunami de la IA?

¿Ustedes qué piensan?

IA para Médicos es un newsletter casi semanal con noticias y contenido relacionado a la Inteligencia Artificial en Medicina.

Por favor, suscríbete y comparte este newsletter con todos tus colegas y amigos médicos (y no médicos!) que puedan interesarse por la IA y lo que se viene en medicina. 
Gracias por leer!
Lisandro

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *