El ingeniero conocido como Moxie Marlinspike, creador de la aplicación de mensajería cifrada Signal, presentó un nuevo proyecto con una ambición concreta: que hablar con una inteligencia artificial no implique entregar información personal a una empresa, a terceros o al Estado. Su propuesta se llama Confer y funciona como un asistente de IA similar a los más populares, pero construido desde cero con la privacidad como eje central.
Para entender qué intenta resolver Confer, primero hay que mirar cómo funcionan hoy la mayoría de los chatbots. Cada mensaje que escribe un usuario se envía a servidores controlados por la empresa que presta el servicio. Esos textos pueden almacenarse, analizarse, usarse para entrenar modelos o entregarse si existe una orden judicial. Incluso cuando una plataforma promete no usar los datos con fines comerciales, suele haber excepciones amplias vinculadas al cumplimiento legal o a revisiones internas.
Ese esquema quedó expuesto en 2024, cuando una orden judicial obligó a OpenAI a preservar conversaciones de usuarios, incluidos chats eliminados. El propio director ejecutivo de la compañía reconoció que eso podía abarcar intercambios extremadamente sensibles. Para Marlinspike, el problema es que la gente no usa la IA como un buscador, sino como si fuera un confidente: se cuentan miedos, problemas personales, decisiones laborales, ideas de negocio y pensamientos que jamás se pondrían por escrito en un espacio público.
Confer apunta a romper con esa lógica. La base del sistema es el cifrado de extremo a extremo, el mismo principio que hizo famosa a Signal. Los mensajes se cifran directamente en el dispositivo del usuario y solo pueden descifrarse allí. El servidor nunca ve el contenido en texto legible y, por lo tanto, no puede almacenarlo de una forma que sea útil para terceros.
El acceso al sistema se realiza mediante passkeys, un estándar de seguridad que genera claves criptográficas únicas para cada servicio y las guarda dentro del hardware del dispositivo, protegidas por huella digital, reconocimiento facial o un código local. La empresa no tiene acceso a esas claves. En términos prácticos, esto significa que aunque Confer quisiera leer una conversación, no podría hacerlo.
Cuando la inteligencia artificial procesa los mensajes, lo hace dentro de un entorno especial del procesador conocido como Trusted Execution Environment. Ese entorno impide que incluso los administradores del servidor puedan ver o modificar los datos que están siendo utilizados. Además, el software que corre en esos servidores es de código abierto y puede verificarse públicamente, lo que permite comprobar que el sistema funciona como se promete y no incluye componentes ocultos.
El resultado es un asistente que permite guardar y sincronizar conversaciones entre dispositivos sin que nadie más tenga acceso a ellas. Según Marlinspike, esta característica cambia por completo la forma en que las personas interactúan con la IA, porque elimina la sensación de estar volcando información íntima en un “lago de datos” controlado por una empresa.
Existen otros intentos de llevar privacidad a los modelos de lenguaje, como Lumo, desarrollado por Proton, o Venice, que apuesta por no guardar datos en servidores. Sin embargo, ninguna de las grandes plataformas ofrece hoy cifrado real de extremo a extremo en sus asistentes de IA.
Acerca de los comentarios
Hemos reformulado nuestra manera de mostrar comentarios, agregando tecnología de forma de que cada lector pueda decidir qué comentarios se le mostrarán en base a la valoración que tengan estos por parte de la comunidad. AMPLIAREsto es para poder mejorar el intercambio entre los usuarios y que sea un lugar que respete las normas de convivencia.
A su vez, habilitamos la casilla [email protected], para que los lectores puedan reportar comentarios que consideren fuera de lugar y que rompan las normas de convivencia.
Si querés leerlo hacé clic aquí[+]