El confesor de silicio: por qué tus chats con IA no son confidenciales

Dr. Luis Enrique Sánchez Díaz
Hace tres mil años, en los templos de Babilonia, los sacerdotes enseñaban que los secretos quedaban seguros si los confiabas al altar: los dioses — decían — sabían escuchar sin traicionar. Milenios después, la Ilustración secularizó aquel pacto y lo trasladó al despacho del abogado, al diván del psicoanalista y al consultorio del médico. Allí nació la confidencialidad profesional, una muralla erigida para que el poder no espiara nuestros miedos más profundos.
Pero el siglo XXI trae un confesor nuevo: ChatGPT. Cientos de millones de personas deslizan al teclado confesiones que antaño sólo susurrarían al sacerdote o quizá ni a él. ¿Por qué? Porque la máquina responde con la velocidad de un oráculo y la paciencia de un bibliotecario infinito. Y, sin embargo, nadie les explicó que este confesor de silicio no ha jurado secreto alguno.
El momento Altman
El 23 de julio de 2025, Sam Altman, CEO de OpenAI, lo dijo con la naturalidad con la que un cirujano anuncia un diagnóstico delicado: “Si hablas con ChatGPT sobre datos sensibles y luego hay una demanda, podríamos estar obligados a presentar esa información” (ADSLZone).
En pocas líneas reveló dos verdades incómodas:
- Los registros existen y persisten.
- Un juez puede reclamarlos.
No es una amenaza; es simplemente la anatomía legal del mundo digital. En Estados Unidos, el mecanismo de e‑discovery permite a un tribunal ordenar a OpenAI entregar conversaciones pertinentes para un litigio (ADSLZone, Diario AS). En España o México el proceso es distinto, pero la cooperación judicial internacional y la ubicación de los servidores —casi siempre en territorio estadounidense— inclinan la balanza hacia la misma conclusión: tus palabras pueden cruzar el océano y reaparecer impresas en un expediente.
Del papiro al prompt: la larga revolución de la intimidad
Yuval Noah Harari suele recordar que la revolución agrícola convirtió a los seres humanos en agricultores, pero también en contables obsesionados con anotar cosechas y tributos. Cada salto tecnológico deja huellas. La invención del papel liberó la memoria; la imprenta multiplicó la palabra; la red digital convirtió cada frase en un dato replicable. Ahora, la inteligencia artificial transforma esos datos en insumo predictivo: tu dolor y tu esperanza se convierten en vectores numéricos que afinan un modelo estadístico.
La paradoja es brutal: mientras científicos y juristas afinan leyes de privacidad, los ciudadanos entregan voluntariamente su intimidad a la misma tecnología que las pone en riesgo. Nunca antes fue tan fácil contarle todo a alguien que no es alguien.
La ilusión de la confidencialidad automática
En la modernidad aprendimos a confiar en “profesiones custodias”: abogado, médico, sacerdote. El secreto profesional se codificó en artículos, códigos, cánones y sentencias. Pero ChatGPT no encaja en esa genealogía. No se colegia, no viste toga ni porta matrícula sanitaria. Opera bajo términos de servicio redactados por abogados corporativos, no bajo un juramento hipocrático. Y, por tanto, no existe blindaje legal equivalente (ADSLZone).
Aquí emerge un vacío cultural: millones de usuarios sienten que la pantalla es íntima porque la habitación está vacía. Pero la experiencia subjetiva de aislamiento no equivale a protección jurídica. Como recordaba Altman, “la gente joven usa ChatGPT como terapia”, ignorando que la sesión queda grabada (Diario AS).
¿Qué puede hacer un juez con tus chats?
Imaginemos dos escenarios:
- Divorcio contencioso. Uno de los cónyuges ordena a su abogado solicitar las conversaciones en las que el otro admita infidelidades o planes financieros. Un juez estadounidense expide la orden y OpenAI obedece.
- Procedimiento penal. La fiscalía investiga acoso en redes y descubre que el imputado confesó detalles en un chat con la IA. Pide asistencia jurídica internacional: los mensajes llegan traducidos y certificados.
En ambos casos, las respuestas de ChatGPT aparecerían impresas y foliadas, igual que un correo electrónico o un contrato.
El dilema civilizatorio
Harari describiría este punto como un momento de definición entre dos narrativas:
- La narrativa de la innovación: los datos deben fluir porque así avanza la ciencia, mejora la eficacia médica y se democratiza el conocimiento.
- La narrativa de los derechos humanos: la dignidad individual exige un espacio de soledad interior donde el Estado —o la corporación— no pueda husmear.
Si prevalece la primera, aceptaremos que la privacidad es una anomalía romántica del siglo XX. Si triunfa la segunda, tendremos que esculpir nuevas leyes que conviertan a la IA en depositaria de un secreto inviolable. Pero la historia enseña que la regulación siempre persigue, nunca lidera.
Tres principios para una nueva ética del prompt
- Minimización radical: comparte sólo lo estrictamente necesario. Si antes consultabas a un abogado, sigue haciéndolo; si necesitas desahogo emocional, busca un terapeuta humano.
- Anonimización creativa: transforma nombres en variables, direcciones en coordenadas genéricas, identidades en siluetas. La IA puede procesar patrones sin saber quién eres.
- Auto‑cifrado narrativo: cuando debas revelar información sensible, fragmenta las piezas y evita que un solo prompt contenga el rompecabezas completo.
No son soluciones perfectas; son diques provisionales en un río acelerado.
Epílogo: el nuevo contrato social de la intimidad
Cada época redefine la frontera entre lo público y lo privado. La nuestra ha delegado gran parte de esa tarea en algoritmos invisibles. No es la primera vez que los humanos confían secretos a entidades inmateriales: antaño eran los dioses; hoy son los modelos de lenguaje. La diferencia es que las divinidades del pasado no podían ser citadas a declarar. Las de ahora, sí.
Quizá dentro de unas décadas miremos atrás y nos sorprenda la ingenuidad con que regalamos nuestros pensamientos a un organismo digital sin pedirle un juramento de silencio. Hasta entonces, cada usuario de ChatGPT debería hacerse la pregunta que Harari lanzaría al auditorio: ¿Estás dispuesto a que tus confesiones sobrevivan más que tú y hablen por ti en un tribunal que aún no existe?
Porque la máquina recuerda —y la ley escucha.
📚 Semblanza del autor
Dr. Luis Enrique Sánchez Díaz es profesor‑investigador en la BUAP y columnista crítico en Periodismo Hoy. Especialista en gobernanza digital y derechos humanos, combina el rigor académico con un estilo narrativo mordaz para exponer los dilemas éticos de la era algorítmica.
Contacto
- 🌐 Blog: luisenriquesan.blog
- 🐦 X: @luisenriquesan
- 💬 Grupo Telegram: https://t.me/profesorluisenriqu
Autor
Luis Enrique Sánchez Díaz
Artículos Relacionados
30 julio, 2025
Planificación y Comunicación Estratégica para Proyectos de Movilidad Urbana: El Caso de las…
@JONAVzquez2 Dr. Luis Enrique Sánchez Díaz I. Introducción: La Importancia de la Planificación Urbana Participativa La planificación urbana es una...
LEER NOTAPor complicaciones fallece la primer paciente con miasis por gusano barrenador en México
La Secretaría de Salud de México informó de la primera muerte de una persona con miasis humana causada por el...
LEER NOTAEl confesor de silicio: por qué tus chats con IA no son confidenciales
Dr. Luis Enrique Sánchez Díaz Hace tres mil años, en los templos de Babilonia, los sacerdotes enseñaban que los secretos...
LEER NOTA