¿Hasta dónde llega la privacidad de ChatGPT? Por qué tus conversaciones con la IA podrían ser evidencia judicial

Por
ChatGPT | EFE

(CNN) — Días antes de que dos estudiantes de posgrado de la Universidad del Sur de Florida desaparecieran el mes pasado, el compañero de departamento de uno de ellos habría hecho una inusual pregunta al chatbot de inteligencia artificial ChatGPT.

“¿Qué pasa si una persona es puesta en una bolsa negra de basura y arrojada a un contenedor?”, preguntó Hisham Abugharbieh el 13 de abril, de acuerdo con una declaración jurada presentada por fiscales de Florida.

ChatGPT respondió que aquello sonaba peligroso, según el documento, y luego Abugharbieh hizo otra pregunta: “¿Cómo lo descubrirían?”.

Esas presuntas consultas a ChatGPT, incluidas en documentos judiciales que imputan a Abugharbieh por dos cargos de asesinato en primer grado, son solo el caso más reciente en que investigadores utilizan historiales de conversaciones con inteligencia artificial como evidencia en pesquisas criminales.

Una conversación con ChatGPT también fue usada en el caso de incendio provocado vinculado a los incendios forestales de Los Ángeles, mientras que una conversación con la IA de Snapchat fue una prueba clave en un juicio por asesinato realizado en 2024 en Virginia.

Para los investigadores, estos registros de chat pueden entregar información valiosa sobre el estado mental y la motivación de una persona sospechosa.

“Creo que cualquier comunicación con chatbots de inteligencia artificial es como un tesoro para las agencias policiales”, dijo Ilia Kolochenko, experto en ciberseguridad y abogado en Washington D.C. “Los sospechosos creen que sus interacciones con la IA permanecerán confidenciales o, al menos, no serán reveladas ni descubiertas, por lo que con frecuencia hacen preguntas muy directas y muy explícitas”.

Los casos criminales ponen de relieve el creciente uso de chatbots de inteligencia artificial para recibir consejos personales y la falta de resguardos de privacidad para ese tipo de conversaciones. Aunque estas herramientas se han convertido rápidamente en una fuente habitual para consultas sobre orientación legal, diagnósticos médicos o apoyo terapéutico, esas conversaciones no cuentan con la misma protección legal que tendrían si se realizaran con un abogado, médico o terapeuta autorizado.

El CEO de OpenAI, Sam Altman, ha dicho que esta falta de privacidad es un “enorme problema”.

“La gente habla con ChatGPT sobre las cosas más personales de su vida”, dijo Altman en julio pasado, durante un podcast con el comediante Theo Von. “La gente lo usa, especialmente los jóvenes, como terapeuta, como coach de vida, para hablar de problemas de pareja. ‘¿Qué debería hacer?’”.

“Y en este momento, si hablas con un terapeuta, un abogado o un médico sobre esos problemas, existe algún tipo de privilegio legal. Está la confidencialidad médico-paciente, la confidencialidad legal, lo que sea. Y todavía no hemos resuelto eso para cuando hablas con ChatGPT. Entonces, si hablas con ChatGPT sobre tus temas más sensibles y luego hay una demanda o algo así, podríamos vernos obligados a entregar esa información”.

Los investigadores están mirando más de cerca lo que la gente le dice a ChatGPT y lo que ChatGPT les dice a cambio. Matthias Balk/picture-alliance/dpa/AP

Los investigadores están mirando más de cerca lo que la gente le dice a ChatGPT y lo que ChatGPT les dice a cambio. Matthias Balk/picture-alliance/dpa/AP vía CNN Newsource

Varios expertos legales consultados por CNN coincidieron con ese análisis y señalaron que no existe una expectativa de privacidad en las aplicaciones de conversación con inteligencia artificial.

“En mi firma lo estamos abordando de esta manera: cualquier cosa que alguien escriba en ChatGPT es algo que podría ser objeto de descubrimiento judicial”, dijo Virginia Hammerle, abogada con sede en Texas.

Mientras los investigadores examinan de cerca lo que los usuarios le dicen a ChatGPT, también han comenzado a mirar con mayor atención lo que ChatGPT les responde.

La semana pasada, el fiscal general de Florida inició una investigación criminal contra OpenAI, acusando que ChatGPT entregó “consejos significativos” al sospechoso de un tiroteo masivo en la Universidad Estatal de Florida. En Canadá, las familias de víctimas de un tiroteo escolar ocurrido en febrero demandaron el miércoles a OpenAI y a Altman, acusando a la compañía y a su chatbot ChatGPT de haber sido cómplices del ataque.

OpenAI detalló el martes su “compromiso con la seguridad de la comunidad” en una extensa declaración. “Seguiremos priorizando la seguridad, equilibrándola con la privacidad y otras libertades civiles, para poder actuar ante riesgos graves”, dijo la compañía.

Por supuesto, la gran mayoría de las personas no se verá implicada en un brutal caso de asesinato. Aun así, expertos legales dijeron a CNN que las personas deberían ser cautelosas respecto de lo que le dicen a los chatbots de inteligencia artificial, considerando estos problemas de privacidad y el rol cada vez mayor que estas herramientas tienen en la vida cotidiana.

“Esto solo se volverá más relevante, más oportuno y más controvertido a medida que las personas sigan recurriendo a ChatGPT y otras plataformas para buscar información sobre lo que están haciendo”, dijo Joey Jackson, analista legal de CNN.

Los registros de chat en los tribunales

El uso de conversaciones con inteligencia artificial en casos criminales es reciente, pero expertos legales señalaron que se asemeja a la forma en que la justicia trata las búsquedas en Google.

En general, este tipo de evidencia electrónica puede revelar la motivación, las acciones y el estado mental de una persona, explicó Jackson.

Por ejemplo, Brian Walshe fue declarado culpable el año pasado del asesinato de su esposa, Ana, luego de que fiscales mostraran al jurado sus macabras búsquedas en Google, entre ellas “10 formas de deshacerse de un cadáver” y “¿pueden acusarte de asesinato sin un cuerpo?”.

Por separado, los juicios por asesinato contra Karen Read —caso en el que un policía de Boston fue encontrado muerto en la nieve— se centraron en el significado y el estado mental de una testigo que había escrito en Google “cuánto tarda alguien en morir de frío”. Read fue finalmente absuelta de los cargos más graves.

Las consultas realizadas a plataformas de inteligencia artificial que revelan el estado mental de una persona sospechosa también han sido consideradas en varios casos relevantes.

En octubre pasado, fiscales federales acusaron a Jonathan Rinderknecht de incendio provocado, por presuntamente iniciar un fuego que más tarde se transformó en el destructivo incendio Palisades, en California. Parte de la evidencia incluía sus solicitudes a ChatGPT. Según una declaración jurada en apoyo de una denuncia penal, le pidió a la aplicación que generara una imagen de personas huyendo de un incendio y dijo que una vez había quemado una Biblia y que se había “sentido tan liberado”.

En octubre pasado, el fiscal interino de los Estados Unidos, Bill Essayli, dijo que el sospechoso de incendio provocado, Jonathan Rinderknecht, le pidió a ChatGPT que creara imágenes de personas que huyeran de un incendio. Dean Musgrove/Los Angeles Daily News/MediaNews Group/Getty Images

En octubre pasado, el fiscal interino de los Estados Unidos, Bill Essayli, dijo que el sospechoso de incendio provocado, Jonathan Rinderknecht, le pidió a ChatGPT que creara imágenes de personas que huyeran de un incendio. Dean Musgrove/Los Angeles Daily News/MediaNews Group/Getty Images

Después de llamar al 911 para informar del incendio, le preguntó a ChatGPT: “¿Tienes la culpa si se inicia un incendio por tus cigarrillos?”, según la declaración jurada. Sin embargo, los fiscales alegan que inició el fuego “de manera maliciosa”, probablemente con un encendedor, y sostienen que su pregunta a ChatGPT fue un intento de construir una explicación más “inocente” sobre la causa del incendio.

Rinderknecht se declaró no culpable de los cargos. Su abogado, Steve Haney, dijo a CNN que su cliente no fue responsable del incendio Palisades y señaló que presentó mociones para excluir parte de la evidencia relacionada con ChatGPT.

“Nuestra postura es que los registros de ChatGPT no son una confesión ni una escena del crimen”, dijo en un correo electrónico. “El gobierno le está pidiendo a un jurado que lea la mente de un hombre a través de una barra de búsqueda, y ni la ciencia ni la ley han permitido jamás ese tipo de salto”.

En el caso de los homicidios de la Universidad del Sur de Florida ocurridos este mes, las preguntas del sospechoso a ChatGPT fueron consignadas en una declaración jurada penal.

Además de la consulta sobre poner a una persona en una bolsa de basura, Abugharbieh preguntó a ChatGPT si podía tener legalmente un arma en su casa sin licencia y si podía modificarse el número de identificación vehicular de un automóvil, según la declaración jurada.

En los días posteriores a las desapariciones de Zamil Limon y Nahida Bristy, las presuntas búsquedas continuaron. El 19 de abril, Abugharbieh preguntó a ChatGPT: “¿Ha habido alguien que haya sobrevivido a una bala de francotirador en la cabeza?”, “¿Mis vecinos escucharán mi arma?” y “¿Existe una temperatura del agua que queme de inmediato?”, señala la declaración jurada. El 23 de abril buscó: “¿Qué significa adulto desaparecido en peligro?”, según la presentación judicial.

El cuerpo de Limon fue encontrado dentro de una bolsa de basura, dijeron las autoridades. Otro conjunto de restos humanos fue hallado en una segunda bolsa de basura, pero las autoridades señalaron que aún no se ha confirmado si corresponden a Bristy.

Abugharbieh fue acusado de dos cargos de asesinato premeditado en primer grado. No ha presentado una declaración formal frente a los cargos y se ordenó que permanezca detenido sin derecho a fianza. La Oficina del Defensor Público del Condado de Hillsborough fue designada para el caso, pero declinó entregar detalles, citando el derecho de Abugharbieh a un juicio justo.

Preocupaciones sobre la privacidad y la próxima frontera

¿Deberían, entonces, las conversaciones con inteligencia artificial contar con mayores protecciones de privacidad?

En su conversación con Von, Altman defendió la necesidad de establecer resguardos de privacidad para las conversaciones con IA y dijo que le daba “mucho miedo” que el gobierno utilizara los registros de chat para vigilar a las personas.

“Creo que realmente tenemos que defender los derechos a la privacidad”, señaló. “No creo que sean absolutos. Estoy totalmente dispuesto a ceder algo de privacidad por la seguridad colectiva, pero la historia muestra que el gobierno suele llevar eso demasiado lejos, y eso me pone muy nervioso”.

Otras figuras del mundo tecnológico han planteado argumentos similares. Nils Gilman, historiador y asesor sénior del centro de estudios Berggruen Institute, defendió el año pasado en una columna de opinión publicada en The New York Times la creación de leyes que establezcan un privilegio legal para la inteligencia artificial.

En conversación con CNN, Gilman sostuvo que los legisladores crearon privilegios legales para médicos, abogados y terapeutas porque el beneficio social de permitir conversaciones honestas supera el interés del Estado en acceder a esa información.

“En la medida en que las personas estén usando los modelos de lenguaje de gran tamaño de la misma manera, deberían recibir el mismo tipo de privilegios”, dijo Gilman.

Sin embargo, ante la ley, los chatbots de inteligencia artificial no cuentan con ese tipo de experticia ni con esas protecciones. Expertos legales indicaron que las conversaciones con IA son equivalentes a cualquier otro dato electrónico, como el uso de una tarjeta de crédito o los registros de llamadas telefónicas.

“Estás ingresando datos en una aplicación concreta y, como resultado de eso, no tienes ninguna protección particular asociada a esos datos”, dijo Jackson, analista legal de CNN. “Sería como si yo hiciera una llamada telefónica y luego argumentara que no pueden usar esa llamada en mi contra”.

Una foto de archivo muestra un teléfono móvil que muestra la pantalla de bienvenida a la aplicación ChatGPT. Gareth Fuller/Press Association/AP

Una foto de archivo muestra un teléfono móvil que muestra la pantalla de bienvenida a la aplicación ChatGPT. Gareth Fuller/Press Association/AP vía CNN Newsource

Podría haber algunas protecciones en situaciones específicas. Por ejemplo, si tu abogado incorpora el expediente privado de tu caso a la base de datos de un chatbot, ¿eso podría ser considerado evidencia susceptible de ser entregada? ¿Qué ocurre si una persona se representa a sí misma en tribunales y le pide ayuda a ChatGPT para redactar un documento?

“La ley todavía está tratando de ponerse al día con el mundo real”, dijo Hammerle.

Pero, tal como está la legislación actualmente, esas conversaciones con inteligencia artificial pueden pasar desde un computador hasta una sala de audiencias.

ChatGPT no es tu amigo, no es tu abogado, no es tu médico, no es tu cónyuge”, dijo Gilman. “Deja de hablarle como si lo fuera”.

Lee también