Investigadores y desarrolladores de IA firman carta de 22 palabras que advierte de un 'riesgo de extinción'

F326d0df 84be 42b1 B32d 3f79187379b6 1434x1078
Sin comentarios Facebook Twitter Flipboard E-mail

En una carta de apenas 22 palabras, investigadores de IA, e incluso ejecutivos como el mismo Sam Altman, el CEO de OpenAI, expresaron su preocupación por el riesgo existencial que para ellos representa la IA para la humanidad.

La razón por la que es de 22 palabras es que las personas que firmaron quisieron que fuera algo sencillo de leer y muy al punto. Traducida al español, la carta dice:

“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear.”

La carta fue publicada en el portal del ‘Center for AI Safety’, una ONG con sede en San Francisco (EEUU). La carta fue firmada por varios conocidos en la industria de IA, dentro de los cuales se incluye a Sam Altman, que curiosamente nunca firmó la carta para parar el desarrollo de la IA publicada hace algunos meses y que sí tenía entre los firmantes a Elon Musk.

Además de Altman, la carta también está firmada por Demis Hassabis, CEO de Google Deepmind, así como Geoffrey Hinton y Yoshua Bengio, los dos investigadores canadienses que desarrollaron el modelo de IA neuronal y que en 2018 recibieron el Premio Turing.

La carta pasada fue criticada porque, si bien muchos estaban de acuerdo con la premisa de los peligros que trae la implementación de IA, el debate principal estuvo sobre la solución propuesta de ‘congelar’ todos los desarrollos por un periodo de seis meses.

La nueva carta, en cambio, busca evitar el debate sobre las soluciones para concentrarse más que nada en el mensaje principal del riesgo que significa la IA para la humanidad.

B181c448 Bbbc 4320 9ea1 9d92240c2bb1 1280x720 imagen falsificada del presidente de Ucrania.

El debate por las soluciones

En una entrevista con The New York Times, el director ejecutivo de la ONG que publicó la carta explica que todas las personas investigando o desarrollando herramientas de IA comparten los mismos miedos, aunque muchas no compartan las soluciones propuestas.

Sam Altman, pese a ser el CEO de la empresa que ha creado la IA más popular y usada del mercado –que impulsa a ChatGPT–, está de acuerdo con que este tipo de sistemas deben ser regulados y tratados con extremo cuidado.

De la misma forma, también existe un debate constante sobre los límites de la IA. Mientras que algunos temen que los sistemas de IA en algún momento puedan empezar a hacer cosas que no queremos y procesos que no entendamos, otros están más enfocados en los riesgos que existen actualmente.

La posibilidad de viralizar noticias falsas, crear imágenes falsas, la implementación de sesgos o la pérdida de la privacidad son todos riesgos importantes que hace posibles, hoy, el uso avanzado de IA.

Comentarios cerrados
Inicio