Siga ZDNET: Agr茅guenos como fuente preferida en Google.
Conclusiones clave de ZDNET
- Los equipos de TI, ingenier铆a, datos e IA ahora lideran esfuerzos responsables de IA.
- PwC recomienda un modelo de 芦defensa禄 de tres niveles.
- Incorpore, no agregue, una IA responsable en todo.
La 芦IA responsable禄 es un tema muy candente e importante en estos d铆as, y la responsabilidad recae en los gerentes y profesionales de tecnolog铆a para garantizar que el trabajo de inteligencia artificial que est谩n realizando genere confianza y al mismo tiempo se alinee con los objetivos comerciales.
El cincuenta y seis por ciento de los 310 ejecutivos que participaron en una nueva encuesta de PwC dicen que sus equipos de primera l铆nea (TI, ingenier铆a, datos e IA) ahora lideran sus esfuerzos de IA responsable. 芦Ese cambio acerca la responsabilidad a los equipos que crean IA y ve que la gobernanza ocurre donde se toman las decisiones, reenfocando la IA responsable de una conversaci贸n de cumplimiento a una de habilitaci贸n de calidad禄, seg煤n los autores de PwC.
Seg煤n la encuesta de PwC, la IA responsable, asociada con la eliminaci贸n de prejuicios y garantizar la equidad, la transparencia, la responsabilidad, la privacidad y la seguridad, tambi茅n es relevante para la viabilidad y el 茅xito empresarial. 芦La IA responsable se est谩 convirtiendo en un impulsor del valor empresarial, impulsando el retorno de la inversi贸n, la eficiencia y la innovaci贸n, al tiempo que fortalece la confianza禄.
芦La IA responsable es un deporte de equipo禄, explican los autores del informe. 芦Ahora es esencial tener roles claros y traspasos estrictos para escalar con seguridad y confianza a medida que se acelera la adopci贸n de la IA禄. Para aprovechar las ventajas de una IA responsable, PwC recomienda implementar aplicaciones de IA dentro de una estructura operativa con tres 芦l铆neas de defensa禄.
- Primera l铆nea: Construye y opera responsablemente.
- Segunda l铆nea: Revisa y rige.
- Tercera l铆nea: Aseguramientos y auditor铆as.
El desaf铆o para lograr una IA responsable, citado por la mitad de los encuestados, es convertir los principios de la IA responsable 芦en procesos escalables y repetibles禄, descubri贸 PwC.
Aproximadamente seis de cada diez encuestados (61%) en la encuesta de PwC dicen que la IA responsable est谩 integrada activamente en las operaciones centrales y la toma de decisiones. Aproximadamente uno de cada cinco (21%) informa estar en la etapa de capacitaci贸n, centrada en el desarrollo de la capacitaci贸n de los empleados, estructuras de gobierno y orientaci贸n pr谩ctica. El 18% restante dice que todav铆a se encuentran en las primeras etapas, trabajando para construir pol铆ticas y marcos fundamentales.
En toda la industria, existe un debate sobre cu谩n estrictas deben ser las riendas de la IA para garantizar aplicaciones responsables. 芦Definitivamente hay situaciones en las que la IA puede proporcionar un gran valor, pero rara vez dentro de la tolerancia al riesgo de las empresas禄, afirm贸 Jake Williams, ex hacker de la Agencia de Seguridad Nacional de EE. UU. y miembro del cuerpo docente de IANS Research. 芦Los LLM que sustentan a la mayor铆a de los agentes y las soluciones de IA de generaci贸n no crean resultados consistentes, lo que genera riesgos impredecibles. Las empresas valoran la repetibilidad, sin embargo, la mayor铆a de las aplicaciones habilitadas para LLM est谩n, en el mejor de los casos, cerca de ser correctas la mayor parte del tiempo禄.
Como resultado de esta incertidumbre, 芦estamos viendo que m谩s organizaciones dan marcha atr谩s en la adopci贸n de iniciativas de IA al darse cuenta de que no pueden mitigar eficazmente los riesgos, en particular aquellos que introducen exposici贸n regulatoria禄, continu贸 Williams. 芦En algunos casos, esto resultar谩 en una redefinici贸n del alcance de las aplicaciones y casos de uso para contrarrestar ese riesgo regulatorio. En otros casos, resultar谩 en el abandono de proyectos completos禄.
Ocho directrices de expertos para una IA responsable
Los expertos de la industria ofrecen las siguientes pautas para crear y gestionar una IA responsable:
1. Integre una IA responsable de principio a fin: Haga que la IA responsable forme parte del dise帽o y la implementaci贸n del sistema, no una ocurrencia tard铆a.
芦Para los l铆deres y gerentes de tecnolog铆a, asegurarse de que la IA sea responsable comienza con c贸mo se construye禄, dijo a ZDNET Rohan Sen, director de riesgos cibern茅ticos, de datos y tecnol贸gicos de PwC US y coautor del informe de la encuesta.
芦Para generar confianza y escalar la IA de manera segura, conc茅ntrese en incorporar una IA responsable en cada etapa del ciclo de vida de desarrollo de la IA e involucrar funciones clave como cibern茅tica, gobernanza de datos, privacidad y cumplimiento normativo禄, dijo el senador. 芦Incorpore la gobernanza de manera temprana y continua禄.
2. Darle a la IA un prop贸sito, no solo implementarla por el simple hecho de hacerlo: 芦Con demasiada frecuencia, los l铆deres y sus equipos tecnol贸gicos tratan la IA como una herramienta para la experimentaci贸n, generando innumerables bytes de datos simplemente porque pueden禄, dijo Danielle An, arquitecta senior de software de Meta.
芦Utilice la tecnolog铆a con gusto, disciplina y prop贸sito. Utilice la IA para agudizar la intuici贸n humana: para probar ideas, identificar puntos d茅biles y acelerar decisiones informadas. Dise帽ar sistemas que mejoren el juicio humano, no que lo reemplacen禄.
3. Subrayar desde el principio la importancia de una IA responsable: Seg煤n Joseph Logan, director de informaci贸n de iManage, las iniciativas responsables de IA 芦deber铆an comenzar con pol铆ticas claras que definan el uso aceptable de la IA y aclaren lo que est谩 prohibido禄.
芦Comience con una declaraci贸n de valores sobre el uso 茅tico禄, dijo Logan. 芦A partir de aqu铆, priorice las auditor铆as peri贸dicas y considere un comit茅 directivo que abarque privacidad, seguridad, asuntos legales, TI y adquisiciones. La transparencia continua y la comunicaci贸n abierta son primordiales para que los usuarios sepan qu茅 est谩 aprobado, qu茅 est谩 pendiente y qu茅 est谩 prohibido. Adem谩s, invertir en capacitaci贸n puede ayudar a reforzar el cumplimiento y el uso 茅tico禄.
4. Hacer de la IA responsable una parte clave de los puestos de trabajo: Las pr谩cticas responsables de la IA y la supervisi贸n deben ser una prioridad tan alta como la seguridad y el cumplimiento, dijo Mike Blandina, director de informaci贸n de Snowflake. 芦Aseg煤rese de que los modelos sean transparentes, explicables y libres de sesgos da帽inos禄.
Tambi茅n son claves para tal esfuerzo los marcos de gobernanza que cumplan con los requisitos de los reguladores, las juntas directivas y los clientes. 芦Estos marcos deben abarcar todo el ciclo de vida de la IA, desde el abastecimiento de datos hasta el entrenamiento de modelos, la implementaci贸n y el monitoreo禄.
5. Mantenga a los humanos informados en todas las etapas: Haga que sea una prioridad 芦discutir continuamente c贸mo utilizar responsablemente la IA para aumentar el valor para los clientes y al mismo tiempo garantizar que se aborden tanto la seguridad de los datos como las preocupaciones de propiedad intelectual禄, dijo Tony Morgan, ingeniero senior de Priority Designs.
芦Nuestro equipo de TI revisa y examina cada plataforma de IA que aprobamos para asegurarnos de que cumpla con nuestros est谩ndares para protegernos a nosotros y a nuestros clientes. Para respetar la propiedad intelectual nueva y existente, nos aseguramos de que nuestro equipo est茅 capacitado sobre los 煤ltimos modelos y m茅todos, para que puedan aplicarlos de manera responsable禄.
6. Evite el riesgo de aceleraci贸n: Muchos equipos de tecnolog铆a tienen 芦la necesidad de poner en producci贸n la IA generativa antes de que el equipo tenga una respuesta a la pregunta X o al riesgo Y禄, dijo Andy Zenkevich, fundador y director ejecutivo de Epiic.
芦Una nueva capacidad de IA ser谩 tan emocionante que los proyectos se adelantar谩n para usarla en producci贸n. El resultado suele ser una demostraci贸n espectacular. Luego, las cosas se rompen cuando los usuarios reales comienzan a confiar en ella. Tal vez haya un tipo incorrecto de brecha de transparencia. Tal vez no est茅 claro qui茅n es responsable si devuelve algo ilegal. T贸mese m谩s tiempo para un mapa de riesgos o verifique la explicabilidad del modelo. La p茅rdida comercial por no cumplir con el plazo inicial no es nada comparada con corregir una implementaci贸n fallida禄.
7. Documento, documento, documento: Lo ideal ser铆a que 芦cada decisi贸n tomada por la IA deber铆a registrarse, ser f谩cil de explicar, auditable y tener un rastro claro que los humanos puedan seguir禄, dijo McGehee. 芦Cualquier gobernanza eficaz y sostenible de la IA incluir谩 un ciclo de revisi贸n cada 30 a 90 d铆as para comprobar adecuadamente las suposiciones y realizar los ajustes necesarios禄.
8. Examina tus datos: 芦La forma en que las organizaciones obtienen datos de capacitaci贸n puede tener importantes implicaciones 茅ticas, de seguridad y de privacidad禄, dijo Fredrik Nilsson, vicepresidente para Am茅rica de Axis Communications.
芦Si un modelo de IA muestra constantemente signos de sesgo o ha sido entrenado con material protegido por derechos de autor, es probable que los clientes lo piensen dos veces antes de usar ese modelo. Las empresas deben usar sus propios conjuntos de datos cuidadosamente examinados al entrenar modelos de IA, en lugar de fuentes externas, para evitar la infiltraci贸n y exfiltraci贸n de informaci贸n y datos confidenciales. Cuanto m谩s control tenga sobre los datos que utilizan sus modelos, m谩s f谩cil ser谩 aliviar las preocupaciones 茅ticas禄.
Reciba las noticias m谩s importantes de la ma帽ana en su bandeja de entrada todos los d铆as con nuestro Bolet铆n informativo Tech Today.



