🛡 CIBERCRIMEN 🛡

Los LLM mejoran en la identificación de personas en línea.

🛡CyberObservatorio
Idioma

Los LLM mejoran en la identificación de personas en línea.

Fuente: CyberScoop

**¿Sobrevivirá el anonimato en Internet en la era de la inteligencia artificial generativa?**

La creciente interacción entre la inteligencia artificial y la privacidad en línea ha suscitado un debate crucial sobre la viabilidad del anonimato en la red. Un estudio reciente realizado por investigadores de ETH Zurich ha arrojado luz sobre la capacidad de los Modelos de Lenguaje de Gran Escala (LLM, por sus siglas en inglés) para combinar información dispersa en Internet y, así, desvelar la identidad de los usuarios detrás de diversas cuentas en plataformas digitales. Este fenómeno plantea importantes implicaciones tanto para la seguridad personal como para la privacidad en el ámbito digital.

El estudio en cuestión se centró en la utilización de agentes LLM que fueron alimentados con biografías anónimas basadas en perfiles reales de usuarios de HackerNews y Reddit. Su tarea era explorar la vasta red de información disponible en Internet con el objetivo de identificar a los usuarios en cuestión. Los resultados de la investigación mostraron que estas herramientas podían realizar en minutos lo que a un investigador humano le podría llevar horas o incluso días. En un conjunto de perfiles proporcionado por la empresa de inteligencia artificial Anthropic, que también participó en la investigación, el LLM logró re-identificar correctamente a 9 de los 125 candidatos, frecuentemente basándose en un simple resumen del perfil y la solicitud de identificar al usuario.

Los modelos ajustados con fine-tuning mostraron una capacidad aún mayor para identificar a individuos al conectar la información existente con perfiles en redes sociales como LinkedIn. El estudio concluye que los LLM cambian fundamentalmente el panorama, permitiendo ataques de desanonimización automatizados a gran escala que operan sobre texto no estructurado.

Daniel Paleka, un estudiante de doctorado y uno de los coautores del estudio, destacó que los hallazgos indican que las herramientas de inteligencia artificial han facilitado considerablemente la identificación de personas que se presentan de manera pseudo-anónima en línea. “Si tu seguridad operativa requiere que nadie pase horas o días investigando quién eres, este modelo de seguridad ahora está roto”, comentó.

Es importante señalar que las personas identificadas en el estudio no eran individuos que buscaban mantener un alto nivel de privacidad; por razones éticas, los investigadores no probaron sus métodos en verdaderos autores anónimos o pseudo-anónimos. Sin embargo, la desanonimización ya ha sido utilizada en casos concretos. Por ejemplo, el mes pasado, Grok, una herramienta de xAI, reveló el nombre legal y la dirección de una actriz de cine para adultos, a pesar de que esta había utilizado un nombre artístico desde 2012. La artista, dirigiéndose a Grok a través de X, mencionó que su nombre legal se hizo público solo después de que la herramienta la “doxxeó” y que su información privada había sido “proliferada en Internet por otros raspadores de IA”.

La rapidez y bajo costo con que los LLM pueden identificar usuarios es alarmante. A lo largo de los años, las fuerzas del orden y los analistas de inteligencia han combinado datos de Internet y otras fuentes de información abierta para identificar a los usuarios, pero los LLM pueden realizar este proceso de manera significativamente más eficiente. Las investigaciones que antes requerían la contratación de un investigador privado o una firma legal ahora pueden llevarse a cabo a una fracción del costo y en un tiempo considerablemente menor. Paleka indicó que tareas fundamentales, como examinar la huella digital de una persona para detectar signos de nacionalidad, ubicación o lugar de trabajo, pueden ser realizadas por LLM en “cinco segundos” y con costos de inferencia de unos pocos céntimos.

Paleka expresó su preocupación, describiendo las capacidades de desanonimización de los LLM como una “invasión masiva de la privacidad”. “No creo que la inteligencia artificial deba limitar a sus usuarios… este es uno de esos casos donde tu libertad se detiene donde comienza la libertad del otro”, comentó.

El estudio sugiere que las herramientas de IA podrían reformular la privacidad en línea, ya que gobiernos, fuerzas del orden, la industria legal, anunciantes, estafadores y cibercriminales podrían utilizar herramientas similares. En países represivos, esto podría representar desafíos aún mayores para disidentes, activistas de derechos humanos, periodistas y otros que dependen del anonimato o la pseudo-anonimidad para operar de manera segura.

Jacob Hoffman-Andrews, un tecnólogo senior en la Electronic Frontier Foundation, subrayó que el estudio “definitivamente indica hasta qué punto la publicación de incluso una pequeña cantidad de información identificativa – en contextos donde podrías no imaginar que alguien intenta desenmascararte – podría resultar en que alguien vincule esa identidad de todos modos” a través de los LLM. Publicar detalles personales aparentemente inocuos, o utilizar la misma cuenta durante un largo periodo de tiempo, puede facilitar que una herramienta de IA correlacione una cuenta con otras, y eventualmente, con la identidad real del usuario. Los modelos de lenguaje grandes son especialmente efectivos para resumir documentos e información, además de “trabajar rápido y no aburrirse”, lo que los convierte en los aliados ideales para la investigación en línea.

Paleka advirtió que las empresas que ofrecen servicios de seguros o verificación de antecedentes probablemente mostrarían un gran interés en la tecnología de desanonimización. Hoffman-Andrews agregó que es fácil imaginar que las empresas de IA intenten convertir estas capacidades en un producto independiente en algún momento.

El impacto a largo plazo de estas tecnologías es que la Internet podría convertirse en un lugar donde mantenerse en el anonimato es, para bien o para mal, considerablemente más difícil. “Creo que hay un gran valor en ser pseudo-anónimo en Internet, y hay muchas personas que desean mantener eso por una amplia variedad de razones. No deberían tener que ser expertos en cómo evitar a un adversario realmente dedicado – como lo es, de manera efectiva, un LLM”, concluyó Hoffman-Andrews.

El artículo original titulado "LLMs are getting better at unmasking people online" apareció inicialmente en CyberScoop.

LLMs are getting better at unmasking people online

Source: CyberScoop

Can anonymity on the internet survive in the age of generative AI? A recentstudyfrom ETH Zurich examined how Large Language Models can combine information from across the internet to identify the human behind the accounts of various online platforms. In the study, LLM agents were given anonymous bios based on real profiles from users on HackerNews and Reddit, and directed to scour the internet for further details in an effort to identify the users. While the results varied, the tools were able to replace “in minutes what could take hours for a dedicated human investigator.” For a dataset of profiles provided by AI company Anthropic, which also participated in the study, the LLM was able to correctly re-identify 9 of the 125 candidates, often by simply giving it a summary of the profile and asking to identify the user. Fine-tuned models identified more individuals by connecting existing information to social media profiles like LinkedIn. “We demonstrate that LLMs fundamentally change the picture, enabling fully automated deanonymization attacks that operate on unstructured text at scale,” the study concludes. Daniel Paleka, a doctoral student and one of several authors on the study, told CyberScoop that the findings indicate AI tools have made it substantially easier to identify pseudo-anonymous people online. “If your operational security requires that no one ever spend hours or days investigating who you are, this security model is now broken,” he said. One important caveat: the people identified in the study were not high-privacy individuals seeking to limit the spread of their personal information on the internet. For ethical reasons, researchers did not test their methods on real, anonymous, or pseudoanonymous posters. AI tools have already been used to unmask individuals online. Last month, xAI’s Grokrevealedan adult film actress’s legal name and address, despite the individual having used a stage name since 2012. The performer,addressing Grokdirectly on X, said her legal name only became public after the AI tool had “doxxed” her, and that her private information had since “been proliferated all over the internet by other AI scrapers.” While law enforcement and intelligence analysts have long combined the internet and other open source data to identify users, LLMs can do so much faster and at a much lower cost. Investigations that would normally require hiring a private investigator or law firm can now be conducted at a fraction of the cost. For example, Paleka said some fundamental tasks, like scouring through a person’s online footprint to identify any sign of nationality, location or place of employment, can now be done by LLMs in “five seconds” and for pennies in inference costs. At one point, Paleka said “I’m very worried” as he described LLMs deanonymization capabilities as a “large scale invasion of privacy.” “I don’t generally think that AI should limit their users …this is one of those cases where your freedom stops where the other person’s freedom [begins],” he said. The study indicates that AI tools could reshape privacy online, withgovernments, law enforcement, thelegal industry, advertisers,scammersand cybercriminals all using similar tools. In repressive nations, it could present greater challenges to dissidents, human rights activists, journalists and others who rely on anonymity or pseudo-anonymity to operate safely. Jacob Hoffman-Andrews, a senior staff technologist at the Electronic Frontier Foundation, said the study “does definitely indicate the degree to which posting even a small amount of identifying information – in contexts where you might not imagine anyone is trying to unmask you – might result in somebody linking that identity anyhow” through LLMs. Posting even innocuous personal details, or under the same account for a long period of time, can make it easier for an AI tool to correlate one account with others, and eventually, your real identity. Large language models excel at summarizing documents and information. They also “work fast and don’t get bored,” Hoffman-Andrews said, making them ideal for internet sleuthing. Paleka said companies providing insurance or background check services would likely have a keen interest in deanonymization technology, and Hoffman-Andrews said it was easy to imagine AI companies attempting to turn the capabilities into a standalone product at some point. The long-term impact is likely to be an internet where staying anonymous is – for better or worse – far more difficult. “I think there’s a lot of value to being pseudo anonymous on the internet, and there are a lot of people who want to maintain [that] for a wide variety of reasons and they shouldn’t all need to be experts in how to avoid a really dedicated adversary – as effectively an LLM is,” Hoffman-Andrews said. The postLLMs are getting better at unmasking people onlineappeared first onCyberScoop.