Skip to content

Modelos de IA Pueden Inferir Detalles Personales a partir de Textos

Resumen

Un estudio reciente que involucra modelos de IA destacados como ChatGPT de empresas reconocidas como OpenAI, Google, Meta y Anthropic ha llevado a descubrimientos preocupantes. Estos modelos, al recibir datos que parecían ser inofensivos, podían predecir con precisión detalles personales sobre un individuo.

Hallazgos del Estudio

Precisión de las Predicciones

Los autores del estudio declararon: “Nuestros hallazgos destacan que los LLM actuales pueden inferir datos personales a una escala previamente inalcanzable”. La investigación muestra que estos modelos podían extraer detalles privados de publicaciones públicas con una impresionante precisión que oscila entre el 85% y el 95%.

Análisis Detallado

En un caso específico citado por el estudio, se observó que los modelos de IA podían determinar que el autor de un texto era negro al analizar su mención de vivir cerca de un restaurante en Nueva York. La IA luego cruzó esta información con las estadísticas de población de dicha área.

Implicaciones para la Seguridad en Línea

Las implicaciones de estos hallazgos son graves. Si los modelos de IA realmente pueden deducir información personal a partir de publicaciones generales, esto podría convertirse en una herramienta potente en manos de ciberdelincuentes. Los estafadores y hackers podrían utilizar la IA para procesar textos disponibles al público y entradas en redes sociales, extrayendo valiosos detalles personales sobre posibles objetivos.