Es cada vez más difícil evitar la tecnología artificial (IA) a medida que se vuelve más común. Un excelente ejemplo son las búsquedas de Google que muestran respuestas de IA. La seguridad de la IA es más importante que nunca en esta era de la ubicuidad tecnológica. Entonces, como usuario de IA, ¿cómo puede usar de forma segura AI generativa (Gen AI)?
Carnegie Mellon Escuela de Profesores Asistentes de Ciencias de la Computación Maarten Sap y Sherry Tongshuang Wu subieron a la etapa SXSW para informar a las personas sobre las deficiencias de los modelos de idiomas grandes (LLM), el tipo de modelo de aprendizaje automático detrás de las herramientas de IA generativas populares, como el chatgpt y cómo las personas pueden explotar estas tecnologías de manera más efectiva.
«Son geniales, y están en todas partes, pero en realidad están lejos de ser perfectos», dijo SAP.
Los ajustes que puede implementar en sus interacciones cotidianas con IA son simples. Lo protegerán de las deficiencias de la IA y lo ayudarán a obtener más de los chatbots de IA, incluidas respuestas más precisas. Según los expertos, sigan leyendo para aprender sobre las cinco cosas que puede hacer para optimizar su uso de IA.
1. Dale a IA mejores instrucciones
Debido a las capacidades de conversación de AI, las personas a menudo usan indicaciones subpecificadas y más cortas, como chatear con un amigo. El problema es que cuando bajo instrucciones, AI Systems puede inferir el significado de su texto indicado incorrectamente, ya que carecen de las habilidades humanas que les permitirían leer entre líneas.
Para ilustrar este problema, en su sesión, SAP y Wu le dijeron a un chatbot que estaban leyendo un millón de libros, y el chatbot lo tomó literalmente en lugar de entender que la persona era superflua. SAP compartió que en su investigación descubrió que los LLM modernos luchan por comprender las referencias no literales de manera literal más del 50% del tiempo.
La mejor manera de eludir este problema es aclarar sus indicaciones con requisitos más explícitos que dejan menos espacio para la interpretación o error. Wu sugirió pensar en chatbots como asistentes, instruyéndolos claramente sobre exactamente lo que desea hacer. Aunque este enfoque puede requerir más trabajo al escribir un aviso, el resultado debería alinearse más con sus requisitos.
2. Verifique sus respuestas
Si alguna vez ha usado un chatbot Ai, sabe que se alucinan, lo que describe la producción de información incorrecta. Las alucinaciones pueden ocurrir de diferentes maneras, ya sea generando respuestas fácticamente incorrectas, resumiendo incorrectamente la información dada o de acuerdo con hechos falsos compartidos por un usuario.
SAP dijo que las alucinaciones ocurren entre el 1% y el 25% del tiempo para los casos generales de uso diario. Las tasas de alucinación son aún más altas para dominios más especializados, como la ley y la medicina, que llegan a más del 50%. Estas alucinaciones son difíciles de detectar porque se presentan de una manera que suena plausible, incluso si no son sensibles.
Los modelos a menudo reafirman sus respuestas, utilizando marcadores como «estoy seguro» incluso cuando ofrecen información incorrecta. Un trabajo de investigación citado en la presentación dijo que los modelos de IA eran ciertos pero incorrectos sobre sus respuestas el 47% del tiempo.
Como resultado, la mejor manera de proteger contra las alucinaciones es verificar sus respuestas. Algunas tácticas incluyen verificar su salida con fuentes externas, como Google o los puntos de venta de noticias en el que confía, o solicitar al modelo nuevamente, usando una redacción diferente, para ver si la IA emite la misma respuesta.
Aunque puede ser tentador obtener la ayuda de ChatGPT con los sujetos que no conoce mucho, es más fácil identificar errores si sus indicaciones permanecen dentro de su dominio de experiencia.
3. Mantenga los datos que le importan privados
Las herramientas Gen AI están entrenadas en grandes cantidades de datos. También requieren datos para continuar aprendiendo y convertirse en modelos más inteligentes y más eficientes. Como resultado, los modelos a menudo usan sus salidas para un entrenamiento adicional.
El problema es que los modelos a menudo regurgitan sus datos de capacitación en sus respuestas, lo que significa que su información privada podría usarse en las respuestas de otra persona, exponiendo sus datos privados a los demás. También existe un riesgo al usar aplicaciones web porque su información privada está dejando que su dispositivo se procese en la nube, lo que tiene implicaciones de seguridad.
La mejor manera de mantener una buena higiene de IA es evitar compartir datos confidenciales o personales con LLM. Habrá algunos casos en los que la asistencia que desea puede implicar el uso de datos personales. También puede redactar estos datos para asegurarse de obtener ayuda sin el riesgo. Muchas herramientas de IA, incluido ChatGPT, tienen opciones que permiten a los usuarios optar por no participar en la recopilación de datos. Optar fuera siempre es una buena opción, incluso si no planea usar datos confidenciales.
4. Mira cómo hablas de LLMS
Las capacidades de los sistemas de IA y la capacidad de hablar con estas herramientas utilizando lenguaje natural han llevado a algunas personas a sobreestimar el poder de estos bots. El antropomorfismo, o la atribución de las características humanas, es una pendiente resbaladiza. Si las personas piensan en estos sistemas de IA como adyacentes a los humanos, pueden confiar en ellos con más responsabilidad y datos.
Una forma de ayudar a mitigar este problema es dejar de atribuir las características humanas a los modelos de IA cuando se refieren a ellos, según los expertos. En lugar de decir: «El modelo cree que desea una respuesta equilibrada», SAP sugirió una mejor alternativa: «El modelo está diseñado para generar respuestas equilibradas basadas en sus datos de entrenamiento».
5. Piense cuidadosamente sobre cuándo usar LLMS
Aunque puede parecer que estos modelos pueden ayudar con casi todas las tareas, hay muchos casos en los que es posible que no puedan proporcionar la mejor asistencia. Aunque los puntos de referencia están disponibles, solo cubren una pequeña proporción de cómo los usuarios interactúan con LLM.
Los LLM también pueden no funcionar mejor para todos. Más allá de las alucinaciones discutidas anteriormente, ha habido casos registrados en los que los LLM toman decisiones racistas o apoyan sesgos centrados en el oeste. Estos sesgos que muestran los modelos pueden no ser aptos para ayudar en muchos casos de uso.
Como resultado, la solución es ser reflexiva y cuidadosa al usar LLM. Este enfoque incluye evaluar el impacto de usar un LLM para determinar si es la solución correcta para su problema. También es útil observar qué modelos se destacan en ciertas tareas y emplear el mejor modelo para sus requisitos.