Recientemente, un grupo de investigadores de inteligencia artificial (IA) y directivos y personalidades influyentes entre los que se encuentran por ejemplo Steve Wozniak (cofundador de Apple), o el propio Elon Musk, quien fue cofundador de OpenAI en 2015 y que abandonó la compañía en 2018, han firmado una carta abierta solicitando a los laboratorios de IA en todo el mundo que detengan el desarrollo de sistemas de IA a gran escala durante al menos seis meses. Esta petición, impulsada por preocupaciones sobre “los riesgos que estos sistemas podrían representar para la sociedad y la humanidad”, plantea varias cuestiones y reflexiones más allá de su contenido.

En primer lugar, me parece importante preguntarse si esta propuesta de pausa en el avance de la IA es realmente un intento genuino de abordar preocupaciones éticas y de seguridad, o si podría estar motivada por intereses competitivos. Es importante señalar que por ejemplo Elon Musk, aunque ya no forma parte de OpenAI, no ha abandonado su interés por la IA. Podría ser que estos seis meses de pausa en el desarrollo de la IA beneficien a los competidores que vienen por detrás, incluido el propio Musk?

Además, cabe preguntarse por qué se propone específicamente una pausa de seis meses y cómo es posible detener la evolución de una tecnología a nivel mundial durante un período determinado. ¿Qué garantías hay de que todos los laboratorios de IA se adhieran a esta moratoria? ¿Sería efectiva una intervención gubernamental para instituir tal pausa?

A pesar de estas preguntas, es innegable que la IA debe evolucionar de manera sensata, razonable y segura, ya que hoy ya puede tener un impacto significativo en nuestra sociedad, y que no cabe duda que mañana lo tendrá de forma exponencial. La carta abierta plantea la necesidad de que los laboratorios de IA y expertos independientes trabajen juntos para desarrollar protocolos de seguridad compartidos y rigurosamente supervisados. Esta cooperación podría ayudar a garantizar que la IA se desarrolle de manera responsable y segura.

Pero…, son tantos los intereses en juego y tan grandes las personalidades físicas, jurídicas y políticas que se van a ver críticamente afectadas, que es legítimo dudar de las verdaderas intenciones de este posicionamiento tan “impropio” y tal vez hasta pueril de un asunto tan excesivamente grande e inabarcable como es el progreso de la IA.

Personalmente no discuto que tengamos (como ya manifesté en un post anterior) la RESPONSABILIDAD de abordar este avance con la máxima cautela, rigor, sensatez y sobre todo ética. Que si bien es cierto que soy poco amigo de la regulación (no en concepto pero sí en las formas en que estamos acostumbrados a que esta se materialice), no cabe no hacerlo en un ecosistema como este.

En definitiva, aunque la carta abierta plantea preguntas sobre la motivación detrás de la propuesta de una moratoria de seis meses en el desarrollo de la IA, también destaca la importancia de abordar preocupaciones éticas y de seguridad. Ahora es el momento de invitar a todos los interesados a compartir sus opiniones y preocupaciones sobre este asunto. ¿Cuál es tu opinión sobre esta propuesta? ¿Cuál es tu grado de preocupación en relación con el impacto de la IA en la sociedad? Os invito a dejar vuestros comentarios y uniros a este debate tan relevante para nuestro futuro.