in

Científicos vuelven a advertir sobre el riesgo de extinción que representa la IA

Compartir en

Científicos y líderes de la industria tecnológica, incluidos ejecutivos de alto nivel de Microsoft y Google, emitieron una nueva advertencia este martes sobre los peligros que la Inteligencia Artificial (IA) representa para la humanidad, reseña la agencia de noticias AP.

“Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social como las pandemias y la guerra nuclear”, señalan los expertos en un comunicado.

El director ejecutivo del fabricante de ChatGPT, OpenAI, Sam Altman, y un científico informático conocido como el padrino de la Inteligencia Artificial, Geoffrey Hinton, se encontraban entre los cientos de figuras destacadas que firmaron la declaración, que se publicó en el sitio web del Centro para la Seguridad de la IA.

Las preocupaciones sobre los sistemas de inteligencia artificial que superan a los humanos y se vuelven locos se han intensificado con el surgimiento de una nueva generación de chatbots de IA altamente capaces como ChatGPT. Ha enviado a países de todo el mundo a luchar para elaborar regulaciones para la tecnología en desarrollo, con la Unión Europea (UE) abriendo el camino con su Ley de IA, que se espera que se apruebe a finales de este año.

La última advertencia fue intencionalmente sucinta, solo una oración, para abarcar una amplia coalición de científicos que podrían no estar de acuerdo sobre los riesgos más probables o las mejores soluciones para prevenirlos, dijo Dan Hendrycks, director ejecutivo del Centro sin fines de lucro con sede en San Francisco, para AI Safety, que organizó la mudanza.

“Hay una variedad de personas de todas las mejores universidades en varios campos diferentes que están preocupadas por esto y piensan que es una prioridad mundial”, dijo Hendrycks. “Así que tuvimos que hacer que la gente saliera del clóset, por así decirlo, sobre este tema, porque muchos hablaban en silencio entre sí”.

Más de 1000 investigadores y tecnólogos, incluido Elon Musk, firmaron una carta mucho más larga a principios de este año en la que pedían una pausa de seis meses en el desarrollo de la IA, diciendo que presenta “riesgos profundos para la sociedad y la humanidad”.

Esa carta fue una respuesta al lanzamiento de OpenAI de un nuevo modelo de IA GPT-4, pero los líderes de OpenAI, su socio Microsoft y su rival Google no firmaron y rechazaron el llamado a una pausa voluntaria de la industria.

Por el contrario, la última declaración fue respaldada por los directores de ciencia y tecnología de Microsoft, así como por Demis Hassabis, director ejecutivo del laboratorio de investigación de IA de Google, DeepMind, y dos ejecutivos de Google que lideran sus esfuerzos de política de IA. La declaración no propone remedios específicos, pero algunos, incluido Altman, han propuesto un regulador internacional en la línea de la agencia nuclear de la ONU.

Algunos críticos se han quejado de que las terribles advertencias sobre los riesgos existenciales expresadas por los fabricantes de IA han contribuido a exagerar las capacidades de sus productos y distraer la atención de los pedidos de regulaciones más inmediatas para controlar sus problemas del mundo real.

Hendrycks expresó que no hay ninguna razón por la que la sociedad no pueda manejar los “daños urgentes y continuos” de los productos que generan nuevos textos o imágenes, al mismo tiempo que comienza a abordar las “catástrofes potenciales a la vuelta de la esquina”.

Lo comparó con los científicos nucleares en la década de 1930, advirtiendo a la gente que tuviera cuidado a pesar de que “todavía no hemos desarrollado la bomba”.

“Nadie dice que GPT-4 o ChatGPT hoy en día estén causando este tipo de preocupaciones”, dijo Hendrycks. “Estamos tratando de abordar estos riesgos antes de que sucedan en lugar de intentar abordar las catástrofes después del hecho”.

La carta también fue firmada por expertos en ciencia nuclear, pandemias y cambio climático. Entre los firmantes se encuentra el escritor Bill McKibben, quien hizo sonar la alarma sobre el calentamiento global en su libro de 1989 “El fin de la naturaleza” y advirtió sobre la IA y las tecnologías asociadas hace dos décadas en otro libro.

“Dado que no hicimos caso a las primeras advertencias sobre el cambio climático hace 35 años, me parece que sería inteligente pensar en esto antes de que todo esté cerrado”, expresó por correo electrónico el martes.

Un académico que ayudó a impulsar la carta dijo que solían burlarse de él por sus preocupaciones sobre el riesgo existencial de la IA, incluso cuando los rápidos avances en la investigación del aprendizaje automático en la última década han superado las expectativas de muchas personas.

El profesor asistente de ciencias de la computación en la Universidad de Cambridge, David Krueger, dijo que algunas de las dudas al hablar es que los científicos no quieren que se vea que sugieren que la IA es “conciencia o IA que hace algo mágico”,

Asimismo, agregó que los sistemas de IA no necesitan ser conscientes de sí mismos o establecer sus propios objetivos para representar una amenaza para la humanidad.

“No estoy comprometido con ningún tipo de riesgo en particular. Creo que hay muchas maneras diferentes de que las cosas salgan mal”, dijo Krueger. “Pero creo que históricamente el más controvertido es el riesgo de extinción, específicamente por los sistemas de IA que se salen de control”.

¿Te gustó esta noticia?

Noticia de Anthony Duarte

RRSS ▶️ atom.bio/anthonyduarte

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Colombia desarticula red de tráfico de migrantes ilegales hacia EEUU

Presidente de Brasil llama a países de Sudamérica a superar diferencias y unirse detrás de objetivos comunes

Presidente de Brasil llama a países de Sudamérica a superar diferencias y unirse detrás de objetivos comunes