Ocho formas de ayudar a sus equipos a crear una IA responsable y duradera

Publicado el:

spot_img
- Advertisment -spot_img

Siga ZDNET: Agréguenos como fuente preferida en Google.


Conclusiones clave de ZDNET

  • Los equipos de TI, ingeniería, datos e IA ahora lideran esfuerzos responsables de IA.
  • PwC recomienda un modelo de «defensa» de tres niveles.
  • Incorpore, no agregue, una IA responsable en todo.

La «IA responsable» es un tema muy candente e importante en estos días, y la responsabilidad recae en los gerentes y profesionales de tecnología para garantizar que el trabajo de inteligencia artificial que están realizando genere confianza y al mismo tiempo se alinee con los objetivos comerciales.

- Advertisement -[wpcode id="699"]

El cincuenta y seis por ciento de los 310 ejecutivos que participaron en una nueva encuesta de PwC dicen que sus equipos de primera línea (TI, ingeniería, datos e IA) ahora lideran sus esfuerzos de IA responsable. «Ese cambio acerca la responsabilidad a los equipos que crean IA y ve que la gobernanza ocurre donde se toman las decisiones, reenfocando la IA responsable de una conversación de cumplimiento a una de habilitación de calidad», según los autores de PwC.

Según la encuesta de PwC, la IA responsable, asociada con la eliminación de prejuicios y garantizar la equidad, la transparencia, la responsabilidad, la privacidad y la seguridad, también es relevante para la viabilidad y el éxito empresarial. «La IA responsable se está convirtiendo en un impulsor del valor empresarial, impulsando el retorno de la inversión, la eficiencia y la innovación, al tiempo que fortalece la confianza».

«La IA responsable es un deporte de equipo», explican los autores del informe. «Ahora es esencial tener roles claros y traspasos estrictos para escalar con seguridad y confianza a medida que se acelera la adopción de la IA». Para aprovechar las ventajas de una IA responsable, PwC recomienda implementar aplicaciones de IA dentro de una estructura operativa con tres «líneas de defensa».

  • Primera línea: Construye y opera responsablemente.
  • Segunda línea: Revisa y rige.
  • Tercera línea: Aseguramientos y auditorías.

- Advertisement -[wpcode id="699"]

El desafío para lograr una IA responsable, citado por la mitad de los encuestados, es convertir los principios de la IA responsable «en procesos escalables y repetibles», descubrió PwC.

Aproximadamente seis de cada diez encuestados (61%) en la encuesta de PwC dicen que la IA responsable está integrada activamente en las operaciones centrales y la toma de decisiones. Aproximadamente uno de cada cinco (21%) informa estar en la etapa de capacitación, centrada en el desarrollo de la capacitación de los empleados, estructuras de gobierno y orientación práctica. El 18% restante dice que todavía se encuentran en las primeras etapas, trabajando para construir políticas y marcos fundamentales.

Leer  Maisa AI obtiene $ 25 millones para arreglar la tasa de falla del 95% de Enterprise AI

En toda la industria, existe un debate sobre cuán estrictas deben ser las riendas de la IA para garantizar aplicaciones responsables. «Definitivamente hay situaciones en las que la IA puede proporcionar un gran valor, pero rara vez dentro de la tolerancia al riesgo de las empresas», afirmó Jake Williams, ex hacker de la Agencia de Seguridad Nacional de EE. UU. y miembro del cuerpo docente de IANS Research. «Los LLM que sustentan a la mayoría de los agentes y las soluciones de IA de generación no crean resultados consistentes, lo que genera riesgos impredecibles. Las empresas valoran la repetibilidad, sin embargo, la mayoría de las aplicaciones habilitadas para LLM están, en el mejor de los casos, cerca de ser correctas la mayor parte del tiempo».

Como resultado de esta incertidumbre, «estamos viendo que más organizaciones dan marcha atrás en la adopción de iniciativas de IA al darse cuenta de que no pueden mitigar eficazmente los riesgos, en particular aquellos que introducen exposición regulatoria», continuó Williams. «En algunos casos, esto resultará en una redefinición del alcance de las aplicaciones y casos de uso para contrarrestar ese riesgo regulatorio. En otros casos, resultará en el abandono de proyectos completos».

Ocho directrices de expertos para una IA responsable

Los expertos de la industria ofrecen las siguientes pautas para crear y gestionar una IA responsable:

1. Integre una IA responsable de principio a fin: Haga que la IA responsable forme parte del diseño y la implementación del sistema, no una ocurrencia tardía.

«Para los líderes y gerentes de tecnología, asegurarse de que la IA sea responsable comienza con cómo se construye», dijo a ZDNET Rohan Sen, director de riesgos cibernéticos, de datos y tecnológicos de PwC US y coautor del informe de la encuesta.

- Advertisement -[wpcode id="699"]

«Para generar confianza y escalar la IA de manera segura, concéntrese en incorporar una IA responsable en cada etapa del ciclo de vida de desarrollo de la IA e involucrar funciones clave como cibernética, gobernanza de datos, privacidad y cumplimiento normativo», dijo el senador. «Incorpore la gobernanza de manera temprana y continua».

Leer  ¿Por qué LLMS por encima de los acertijos fáciles pero renuncia a los duros?

2. Darle a la IA un propósito, no solo implementarla por el simple hecho de hacerlo: «Con demasiada frecuencia, los líderes y sus equipos tecnológicos tratan la IA como una herramienta para la experimentación, generando innumerables bytes de datos simplemente porque pueden», dijo Danielle An, arquitecta senior de software de Meta.

«Utilice la tecnología con gusto, disciplina y propósito. Utilice la IA para agudizar la intuición humana: para probar ideas, identificar puntos débiles y acelerar decisiones informadas. Diseñar sistemas que mejoren el juicio humano, no que lo reemplacen».

3. Subrayar desde el principio la importancia de una IA responsable: Según Joseph Logan, director de información de iManage, las iniciativas responsables de IA «deberían comenzar con políticas claras que definan el uso aceptable de la IA y aclaren lo que está prohibido».

«Comience con una declaración de valores sobre el uso ético», dijo Logan. «A partir de aquí, priorice las auditorías periódicas y considere un comité directivo que abarque privacidad, seguridad, asuntos legales, TI y adquisiciones. La transparencia continua y la comunicación abierta son primordiales para que los usuarios sepan qué está aprobado, qué está pendiente y qué está prohibido. Además, invertir en capacitación puede ayudar a reforzar el cumplimiento y el uso ético».

4. Hacer de la IA responsable una parte clave de los puestos de trabajo: Las prácticas responsables de la IA y la supervisión deben ser una prioridad tan alta como la seguridad y el cumplimiento, dijo Mike Blandina, director de información de Snowflake. «Asegúrese de que los modelos sean transparentes, explicables y libres de sesgos dañinos».

También son claves para tal esfuerzo los marcos de gobernanza que cumplan con los requisitos de los reguladores, las juntas directivas y los clientes. «Estos marcos deben abarcar todo el ciclo de vida de la IA, desde el abastecimiento de datos hasta el entrenamiento de modelos, la implementación y el monitoreo».

5. Mantenga a los humanos informados en todas las etapas: Haga que sea una prioridad «discutir continuamente cómo utilizar responsablemente la IA para aumentar el valor para los clientes y al mismo tiempo garantizar que se aborden tanto la seguridad de los datos como las preocupaciones de propiedad intelectual», dijo Tony Morgan, ingeniero senior de Priority Designs.

Leer  Patronus AI debuta Percival para ayudar a las empresas a monitorear a los agentes de IA en escala

«Nuestro equipo de TI revisa y examina cada plataforma de IA que aprobamos para asegurarnos de que cumpla con nuestros estándares para protegernos a nosotros y a nuestros clientes. Para respetar la propiedad intelectual nueva y existente, nos aseguramos de que nuestro equipo esté capacitado sobre los últimos modelos y métodos, para que puedan aplicarlos de manera responsable».

6. Evite el riesgo de aceleración: Muchos equipos de tecnología tienen «la necesidad de poner en producción la IA generativa antes de que el equipo tenga una respuesta a la pregunta X o al riesgo Y», dijo Andy Zenkevich, fundador y director ejecutivo de Epiic.

«Una nueva capacidad de IA será tan emocionante que los proyectos se adelantarán para usarla en producción. El resultado suele ser una demostración espectacular. Luego, las cosas se rompen cuando los usuarios reales comienzan a confiar en ella. Tal vez haya un tipo incorrecto de brecha de transparencia. Tal vez no esté claro quién es responsable si devuelve algo ilegal. Tómese más tiempo para un mapa de riesgos o verifique la explicabilidad del modelo. La pérdida comercial por no cumplir con el plazo inicial no es nada comparada con corregir una implementación fallida».

7. Documento, documento, documento: Lo ideal sería que «cada decisión tomada por la IA debería registrarse, ser fácil de explicar, auditable y tener un rastro claro que los humanos puedan seguir», dijo McGehee. «Cualquier gobernanza eficaz y sostenible de la IA incluirá un ciclo de revisión cada 30 a 90 días para comprobar adecuadamente las suposiciones y realizar los ajustes necesarios».

8. Examina tus datos: «La forma en que las organizaciones obtienen datos de capacitación puede tener importantes implicaciones éticas, de seguridad y de privacidad», dijo Fredrik Nilsson, vicepresidente para América de Axis Communications.

«Si un modelo de IA muestra constantemente signos de sesgo o ha sido entrenado con material protegido por derechos de autor, es probable que los clientes lo piensen dos veces antes de usar ese modelo. Las empresas deben usar sus propios conjuntos de datos cuidadosamente examinados al entrenar modelos de IA, en lugar de fuentes externas, para evitar la infiltración y exfiltración de información y datos confidenciales. Cuanto más control tenga sobre los datos que utilizan sus modelos, más fácil será aliviar las preocupaciones éticas».

Reciba las noticias más importantes de la mañana en su bandeja de entrada todos los días con nuestro Boletín informativo Tech Today.

spot_img

Relacionada

Leave a Reply

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

spot_img