**¿Sobrevivirá el anonimato en Internet en la era de la inteligencia artificial generativa?**
La creciente interacción entre la inteligencia artificial y la privacidad en línea ha suscitado un debate crucial sobre la viabilidad del anonimato en la red. Un estudio reciente realizado por investigadores de ETH Zurich ha arrojado luz sobre la capacidad de los Modelos de Lenguaje de Gran Escala (LLM, por sus siglas en inglés) para combinar información dispersa en Internet y, así, desvelar la identidad de los usuarios detrás de diversas cuentas en plataformas digitales. Este fenómeno plantea importantes implicaciones tanto para la seguridad personal como para la privacidad en el ámbito digital.
El estudio en cuestión se centró en la utilización de agentes LLM que fueron alimentados con biografías anónimas basadas en perfiles reales de usuarios de HackerNews y Reddit. Su tarea era explorar la vasta red de información disponible en Internet con el objetivo de identificar a los usuarios en cuestión. Los resultados de la investigación mostraron que estas herramientas podían realizar en minutos lo que a un investigador humano le podría llevar horas o incluso días. En un conjunto de perfiles proporcionado por la empresa de inteligencia artificial Anthropic, que también participó en la investigación, el LLM logró re-identificar correctamente a 9 de los 125 candidatos, frecuentemente basándose en un simple resumen del perfil y la solicitud de identificar al usuario.
Los modelos ajustados con fine-tuning mostraron una capacidad aún mayor para identificar a individuos al conectar la información existente con perfiles en redes sociales como LinkedIn. El estudio concluye que los LLM cambian fundamentalmente el panorama, permitiendo ataques de desanonimización automatizados a gran escala que operan sobre texto no estructurado.
Daniel Paleka, un estudiante de doctorado y uno de los coautores del estudio, destacó que los hallazgos indican que las herramientas de inteligencia artificial han facilitado considerablemente la identificación de personas que se presentan de manera pseudo-anónima en línea. “Si tu seguridad operativa requiere que nadie pase horas o días investigando quién eres, este modelo de seguridad ahora está roto”, comentó.
Es importante señalar que las personas identificadas en el estudio no eran individuos que buscaban mantener un alto nivel de privacidad; por razones éticas, los investigadores no probaron sus métodos en verdaderos autores anónimos o pseudo-anónimos. Sin embargo, la desanonimización ya ha sido utilizada en casos concretos. Por ejemplo, el mes pasado, Grok, una herramienta de xAI, reveló el nombre legal y la dirección de una actriz de cine para adultos, a pesar de que esta había utilizado un nombre artístico desde 2012. La artista, dirigiéndose a Grok a través de X, mencionó que su nombre legal se hizo público solo después de que la herramienta la “doxxeó” y que su información privada había sido “proliferada en Internet por otros raspadores de IA”.
La rapidez y bajo costo con que los LLM pueden identificar usuarios es alarmante. A lo largo de los años, las fuerzas del orden y los analistas de inteligencia han combinado datos de Internet y otras fuentes de información abierta para identificar a los usuarios, pero los LLM pueden realizar este proceso de manera significativamente más eficiente. Las investigaciones que antes requerían la contratación de un investigador privado o una firma legal ahora pueden llevarse a cabo a una fracción del costo y en un tiempo considerablemente menor. Paleka indicó que tareas fundamentales, como examinar la huella digital de una persona para detectar signos de nacionalidad, ubicación o lugar de trabajo, pueden ser realizadas por LLM en “cinco segundos” y con costos de inferencia de unos pocos céntimos.
Paleka expresó su preocupación, describiendo las capacidades de desanonimización de los LLM como una “invasión masiva de la privacidad”. “No creo que la inteligencia artificial deba limitar a sus usuarios… este es uno de esos casos donde tu libertad se detiene donde comienza la libertad del otro”, comentó.
El estudio sugiere que las herramientas de IA podrían reformular la privacidad en línea, ya que gobiernos, fuerzas del orden, la industria legal, anunciantes, estafadores y cibercriminales podrían utilizar herramientas similares. En países represivos, esto podría representar desafíos aún mayores para disidentes, activistas de derechos humanos, periodistas y otros que dependen del anonimato o la pseudo-anonimidad para operar de manera segura.
Jacob Hoffman-Andrews, un tecnólogo senior en la Electronic Frontier Foundation, subrayó que el estudio “definitivamente indica hasta qué punto la publicación de incluso una pequeña cantidad de información identificativa – en contextos donde podrías no imaginar que alguien intenta desenmascararte – podría resultar en que alguien vincule esa identidad de todos modos” a través de los LLM. Publicar detalles personales aparentemente inocuos, o utilizar la misma cuenta durante un largo periodo de tiempo, puede facilitar que una herramienta de IA correlacione una cuenta con otras, y eventualmente, con la identidad real del usuario. Los modelos de lenguaje grandes son especialmente efectivos para resumir documentos e información, además de “trabajar rápido y no aburrirse”, lo que los convierte en los aliados ideales para la investigación en línea.
Paleka advirtió que las empresas que ofrecen servicios de seguros o verificación de antecedentes probablemente mostrarían un gran interés en la tecnología de desanonimización. Hoffman-Andrews agregó que es fácil imaginar que las empresas de IA intenten convertir estas capacidades en un producto independiente en algún momento.
El impacto a largo plazo de estas tecnologías es que la Internet podría convertirse en un lugar donde mantenerse en el anonimato es, para bien o para mal, considerablemente más difícil. “Creo que hay un gran valor en ser pseudo-anónimo en Internet, y hay muchas personas que desean mantener eso por una amplia variedad de razones. No deberían tener que ser expertos en cómo evitar a un adversario realmente dedicado – como lo es, de manera efectiva, un LLM”, concluyó Hoffman-Andrews.
El artículo original titulado "LLMs are getting better at unmasking people online" apareció inicialmente en CyberScoop.