Referencial Pexels

(CNN/CNN Chile) – Google rechazó las afirmaciones de que uno de sus programas de inteligencia artificial (IA) había avanzado tanto que se había vuelto consciente.

Blake Lemoine, uno de los ingenieros de la compañía, señaló a The Washington Post que después de cientos de interacciones con un sistema de IA llamado LaMDA, creía que el programa había alcanzado un nivel de conciencia.

Lee tambiénDall-E Mini, la curiosa inteligencia artificial que crea imágenes a partir de textos

El experto habría compartido evidencia con la compañía de que LaMDA era consciente, pero esta no estuvo de acuerdo. En un comunicado, Google dijo que su equipo “revisó las preocupaciones de Blake según nuestros Principios de IA y le informaron que la evidencia no respalda sus afirmaciones“.

El 6 de junio, Lemoine contó que fue puesto en licencia administrativa pagada debido a “una investigación sobre preocupaciones éticas de IA que estaba planteando dentro de la empresa” y que podría ser despedido “pronto”.

Un portavoz de Google confirmó que Lemoine permanece en licencia administrativa. Según The Washington Post, fue suspendido por violar la política de confidencialidad de la empresa.

Lee también: Microsoft anunció que apoyará a empleados que quieran sindicalizarse

En su declaración, el gigante tecnológico recalcó que LaMDA se ha sometido a 11 “revisiones distintas de principios de IA“, así como a “investigaciones y pruebas rigurosas” relacionadas con la calidad, la seguridad y la capacidad de presentar declaraciones basadas en hechos.

“Por supuesto, algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son conscientes”, recalcaron.

Tags:

Deja tu comentario