View Categories

A Year of Racing Ahead with AI and Not Breaking Things

1 min read

Author(s): Editorial Team, Nature Machine Intelligence

Year: 2023

Bibliographic Reference (APA format):
Editorial Team. (2023). A year of racing ahead with AI and not breaking things. Nature Machine Intelligence, 5, 1337. https://doi.org/10.1038/s42256-023-00782-7

Assigned Category: Ética y regulación (Ethics and regulation)

Resumen:

El artículo editorial publicado en Nature Machine Intelligence reflexiona sobre los debates que han dominado el campo de la inteligencia artificial (IA) durante el año 2023, con un enfoque particular en los riesgos de seguridad, la alineación de los modelos de IA con los objetivos humanos y el impacto ético y social de estas tecnologías. A medida que los modelos de IA, especialmente los modelos de lenguaje a gran escala como ChatGPT, han demostrado capacidades disruptivas, ha crecido la preocupación por su uso indebido, como la propagación de desinformación y los ciberataques.

Durante el año, figuras clave en el campo de la IA, como Yoshua Bengio y Geoffrey Hinton, expresaron preocupación sobre los riesgos existenciales de los modelos de IA que podrían volverse incontrolables. Esto ha llevado a un cambio en el enfoque público hacia los posibles escenarios catastróficos, como el desarrollo de inteligencia artificial general (AGI), que podría adquirir habilidades superhumanas. Estas preocupaciones fueron exacerbadas por el rápido avance de los modelos generativos, lo que impulsó la creación de regulaciones para controlar los riesgos asociados con su desarrollo y despliegue.

En este contexto, OpenAI y otras compañías líderes en IA han lanzado modelos avanzados con la promesa de beneficios para la humanidad, pero también han enfrentado críticas por confiar en la autorregulación. El lanzamiento de GPT-4 en 2023 y la rápida adopción de otros modelos como LLaMA, ERNIE y Gemini han intensificado el debate sobre cómo alinear estos sistemas con los valores humanos.

Uno de los eventos clave de 2023 fue la firma de una carta abierta que solicitaba una pausa de seis meses en los experimentos de IA avanzados. Sin embargo, la iniciativa fue criticada por concentrarse demasiado en riesgos inciertos a largo plazo, mientras que se descuidan los riesgos actuales, como la discriminación algorítmica y los ataques con deepfakes. Asimismo, la cumbre de seguridad en IA organizada por el Reino Unido en noviembre también generó controversia debido a su enfoque en los riesgos futuros y su dependencia en la autorregulación.

En respuesta a estos desafíos, el presidente de EE. UU., Joseph Biden, emitió una orden ejecutiva en octubre de 2023, estableciendo nuevos estándares para la seguridad y regulación de la IA. Este fue el primer paso significativo hacia la creación de un marco regulatorio más formal que requiere que las empresas compartan los resultados de pruebas de seguridad de los modelos de IA más avanzados.

El artículo concluye que, a medida que nos acercamos a 2024, el debate sobre la seguridad de la IA continuará, y será esencial que las regulaciones no se definan solo por los intereses de las grandes empresas tecnológicas, sino que se incluyan perspectivas globales para abordar tanto los daños actuales como los riesgos futuros de la IA.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

MENU