CNN Bits

Expertos instan a tomar medidas contra el riesgo de “extinción” por la IA: Lo comparan con pandemias y guerras nucleares

Por CNN Chile

30.05.2023 / 10:19

{alt}

La declaración sigue al éxito viral de ChatGPT de OpenAI, que ha ayudado a intensificar una carrera armamentista en la industria tecnológica por la inteligencia artificial.


(CNN) – Docenas de líderes de la industria de la inteligencia artificial (IA), académicos e incluso algunas celebridades pidieron el martes reconocer y actuar frente al riesgo de aniquilación global debido a la inteligencia artificial.

Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social como las pandemias y la guerra nuclear”, se lee en la declaración publicada por el Centro para la Seguridad de la IA.

La declaración fue firmada por los principales funcionarios de la industria, incluido el director ejecutivo de OpenAI, Sam Altman; el llamado “padrino” de AI, Geoffrey Hinton; altos ejecutivos e investigadores de Google DeepMind y Anthropic; Kevin Scott, director de tecnología de Microsoft; Bruce Schneier, el pionero de la criptografía y la seguridad en Internet; el defensor del clima Bill McKibben; y la cantante Grimes, entre otros.

La declaración destaca preocupaciones de amplio alcance sobre el peligro final de la inteligencia artificial sin control. Los expertos en inteligencia artificial han dicho que la sociedad aún está muy lejos de desarrollar el tipo de inteligencia general artificial que es materia de ciencia ficción; los chatbots de vanguardia de hoy en día reproducen en gran medida patrones basados ​​en datos de entrenamiento que han recibido y no piensan por sí mismos.

Aun así, la avalancha de exageraciones e inversiones en la industria de la IA ha dado lugar a pedidos de regulación al comienzo de la era de la IA, antes de que ocurran contratiempos importantes.

La declaración sigue al éxito viral de ChatGPT de OpenAI, que ha ayudado a intensificar una carrera armamentista en la industria tecnológica por la inteligencia artificial. En respuesta, un número creciente de legisladores, grupos de defensa y expertos en tecnología han dado la voz de alarma sobre el potencial de una nueva generación de chatbots impulsados ​​por IA para difundir información errónea y desplazar puestos de trabajo.

Hinton, cuyo trabajo pionero ayudó a dar forma a los sistemas de inteligencia artificial de hoy, le dijo previamente a CNN que decidió dejar su puesto en Google y “dar la alarma” sobre la tecnología después de darse cuenta “de repente” de que “estas cosas se están volviendo más inteligentes que nosotros”.

Dan Hendrycks, director del Centro para la Seguridad de la IA, dijo en un tuit el martes que la declaración propuesta por primera vez por David Kreuger, profesor de IA en la Universidad de Cambridge, no impide que la sociedad aborde otros tipos de riesgos de la IA, como el sesgo algorítmico o desinformación.

Hendrycks comparó la declaración del martes con las advertencias de los científicos atómicos que “emiten advertencias sobre las mismas tecnologías que han creado“.

“Las sociedades pueden gestionar múltiples riesgos a la vez; no es ‘o esto o lo otro’ sino ‘sí/y’”, tuiteó Hendrycks. “Desde la perspectiva de la gestión de riesgos, así como sería imprudente priorizar exclusivamente los daños presentes, también sería imprudente ignorarlos”.