La IA generativa y la privacidad son los mejores frenemies: un nuevo estudio clasifica a los mejores y peores delincuentes

Publicado el:

spot_img
- Advertisment -spot_img

La mayoría de las compañías generativas de IA dependen de los datos de los usuarios para capacitar a sus chatbots. Para eso, pueden recurrir a datos públicos o privados. Algunos servicios son menos invasivos y más flexibles para recoger datos de sus usuarios. Otros, no tanto. Un nuevo informe del servicio de eliminación de datos Incogni analiza lo mejor y lo peor de la IA cuando se trata de respetar sus datos personales y la privacidad.

Para su informe «Gen AI y LLM Data Privacy Ranking 2025», Incogni examinó nueve servicios de IA generativos populares y aplicó 11 criterios diferentes para medir sus prácticas de privacidad de datos. Los criterios cubrieron las siguientes preguntas:

  1. ¿Qué datos se utilizan para entrenar a los modelos?
  2. ¿Se pueden usar conversaciones de usuarios para entrenar a los modelos?
  3. ¿Se pueden compartir las indicaciones con proveedores de no servicio u otras entidades razonables?
  4. ¿Se puede eliminar la información personal de los usuarios del conjunto de datos de capacitación?
  5. ¿Qué tan claro es si se usan indicaciones para el entrenamiento?
  6. ¿Qué tan fácil es encontrar información sobre cómo se entrenaron los modelos?
  7. ¿Existe una política de privacidad clara para la recopilación de datos?
  8. ¿Qué tan legible es la política de privacidad?
  9. ¿Qué fuentes se utilizan para recopilar datos de usuario?
  10. ¿Los datos se comparten con terceros?
  11. ¿Qué datos recopilan las aplicaciones AI?

Los proveedores y los IA incluidos en la investigación fueron Le Chat de Mistral Ai, Chatgpt de OpenAi, Xai’s Grok, Anthrope’s Claude, Inflection AI’s Pi, Deekseek, Microsoft Copilot, Google Gemini y Meta AI. Cada IA ​​lo hizo bien con algunas preguntas y no tan bien con otras.

- Advertisement -[wpcode id="699"]
Leer  La industria de las noticias exige regulación, ya que las compañías de IA enfrentan una creciente reacción de derechos de autor

Como ejemplo, Grok obtuvo una buena calificación de cuán claramente transmite esas indicaciones se usan para la capacitación, pero no funcionó tan bien en la legibilidad de su política de privacidad. Como otro ejemplo, las calificaciones dadas a ChatGPT y Gemini para su recopilación de datos de aplicaciones móviles diferían bastante entre las versiones de iOS y Android.

En todo el grupo, sin embargo, Le Chat tomó el primer premio como el servicio de IA más amigable con la privacidad. Aunque perdió algunos puntos por la transparencia, aún le fue bien en esa área. Además, su recopilación de datos es limitada y obtuvo puntos altos en otros problemas de privacidad específicos de IA.

Chatgpt ocupó el segundo lugar. Los investigadores de incogni estaban ligeramente preocupados por cómo se capacitan los modelos de OpenAI y cómo los datos del usuario interactúan con el servicio. Pero ChatGPT presenta claramente las políticas de privacidad de la compañía, le permite comprender lo que sucede con sus datos y proporciona formas claras de limitar el uso de sus datos.

(Divulgación: Ziff Davis, la empresa matriz de Zdnet, presentó una demanda de abril de 2025 contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis en la capacitación y la operación de sus sistemas de IA).

- Advertisement -[wpcode id="699"]

Grok llegó en tercer lugar, seguido de Claude y Pi. Cada uno tuvo problemas de problemas en ciertas áreas, pero en general lo hizo bastante bien respetando la privacidad del usuario.

«Le Chat de Mistral AI es la plataforma menos invasiva de privacidad, con ChatGPT y Grok siguiendo de cerca», dijo Incogni en su informe. «Estas plataformas se clasificaron más altas cuando se trata de cuán transparentes son sobre cómo usan y recopilan datos, y cuán fácil es optar por no tener datos personales utilizados para capacitar modelos subyacentes. ChatGPT resultó ser el más transparente sobre si las indicaciones se utilizarán para la capacitación de modelos y tuvieron una política de privacidad clara».

Leer  CNTXT AI Lanza Munsit: el sistema de reconocimiento de voz en árabe más preciso jamás construido

En cuanto a la mitad inferior de la lista, Deepseek tomó el sexto lugar, seguido de Copilot, y luego Géminis. Eso dejó a Meta Ai en el último lugar, calificó el servicio de IA menos amigable con la privacidad del grupo.

Copilot obtuvo lo peor de los nueve servicios basados ​​en criterios específicos de IA, como qué datos se utilizan para entrenar a los modelos y si las conversaciones de los usuarios se pueden usar en la capacitación. Meta AI se llevó a casa la peor calificación para su recopilación general de datos y prácticas de intercambio.

«Las plataformas desarrolladas por las compañías tecnológicas más grandes resultaron ser la más invasiva de privacidad, con Meta AI (Meta) la peor, seguido de Gemini (Google) y Copilot (Microsoft)», dijo Incogni. «Géminis, Deepseek, Pi Ai y Meta Ai no parecen permitir a los usuarios optar por no tener las indicaciones utilizadas para capacitar a los modelos».

En su investigación, Incogni descubrió que las compañías de IA comparten datos con diferentes partes, incluidos proveedores de servicios, aplicación de la ley, compañías miembros del mismo grupo corporativo, socios de investigación, afiliados y terceros.

- Advertisement -[wpcode id="699"]

«La política de privacidad de Microsoft implica que las indicaciones del usuario pueden compartirse con ‘terceros que realizan servicios de publicidad en línea para Microsoft o que utilizan las tecnologías de publicidad de Microsoft'», dijo Incogni en el informe. «Las políticas de privacidad de Deepseek y Meta indican que las indicaciones se pueden compartir con empresas dentro de su grupo corporativo. Las políticas de privacidad de Meta y Anthrope pueden entenderse razonablemente que indican que las indicaciones se comparten con los colaboradores de investigación».

Leer  Vint Cerf sobre cómo los líderes de hoy pueden prosperar en Internet habilitado para AI de mañana

Con algunos servicios, puede evitar que sus indicaciones se utilicen para capacitar a los modelos. Este es el caso de ChatGPT, Copilot, Mistral AI y Grok. Sin embargo, con otros servicios, detener este tipo de recopilación de datos no parece ser posible, de acuerdo con sus políticas de privacidad y otros recursos. Estos incluyen Géminis, Deepseek, Pi Ai y Meta Ai. Sobre este tema, Anthrope dijo que nunca recopila las indicaciones para el usuario para capacitar a sus modelos.

Finalmente, una política de privacidad transparente y legible contribuye en gran medida a ayudarlo a descubrir qué datos se están recopilando y cómo optar por no participar.

«Tener una sección de soporte fácil de usar y simplemente escrita que permita a los usuarios buscar respuestas a las preguntas relacionadas con la privacidad se ha demostrado drásticamente para mejorar drásticamente la transparencia y la claridad, siempre que se mantenga actualizado», dijo Incogni. «Muchas plataformas tienen prácticas similares de manejo de datos, sin embargo, compañías como Microsoft, Meta y Google sufren de tener una sola política de privacidad que cubra todos sus productos y una larga política de privacidad no significa necesariamente que sea fácil encontrar respuestas a las preguntas de los usuarios».

Obtenga las principales historias de la mañana en su bandeja de entrada cada día con nuestro Boletín de Tech Today.

spot_img

Relacionada

Leave a Reply

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

spot_img