Aún deberías aprender a codificar, dice el principal ejecutivo de IA de Google: he aquí por qué

Publicado el:

spot_img
- Advertisment -spot_img

Siga ZDNET: Agréganos como fuente preferida en Google.


Conclusiones clave de ZDNET

  • AI Dev, la conferencia de IA de DeepLearning.ai, hizo su debut en Nueva York.
  • Nos sentamos con Andrew Ng en el evento para hablar sobre IA y desarrolladores.
  • Ng recomienda que todos aprendan a codificar.

La segunda cumbre anual AI Dev, una cumbre sobre todo lo relacionado con la IA y el software organizada por DeepLearning.ai de Andrew Ng, llegó a Nueva York el viernes. En varios paneles y en una entrevista con ZDNET, el fundador de Google Brain dio consejos sobre el futuro del campo.

- Advertisement -[wpcode id="699"]

La IA se ha convertido rápidamente en un asistente de codificación confiable para muchos desarrolladores, hasta el punto de que muchos se preguntan sobre el futuro de toda la profesión. Los trabajos de codificación de nivel básico están disminuyendo para los recién graduados a medida que los equipos transfieren tareas junior a asistentes de IA; Al mismo tiempo, los expertos citan las limitaciones reales de estas herramientas como prueba de que los ingenieros nunca quedarán obsoletos.

Esto es lo que Ng dijo sobre cómo navegar este futuro incierto, por qué todos deberían aprender a codificar y cómo se debe realmente gobernar.

La codificación todavía importa, más o menos

«Debido a que la codificación con IA ha bajado tanto el listón de entrada, espero que podamos alentar a todos a aprender a codificar, no solo a los ingenieros de software», dijo Ng durante su discurso de apertura.

Aún no se sabe cómo afectará la IA a los empleos y al futuro del trabajo. De todos modos, Ng le dijo a ZDNET en una entrevista que cree que todos deberían saber los conceptos básicos de cómo usar la IA para codificar, lo que equivale a saber «un poco de matemáticas», que sigue siendo una habilidad difícil, pero que se aplica de manera más general a muchas carreras para lo que pueda necesitar.

- Advertisement -[wpcode id="699"]

«Una de las habilidades más importantes del futuro es la capacidad de decirle a una computadora exactamente lo que quieres que haga por ti», dijo, señalando que todos deberían saber lo suficiente para hablar el lenguaje de una computadora, sin necesidad de escribir código. «La sintaxis, los encantamientos arcanos que usamos, eso es menos importante».

Añadió que quiere dar la bienvenida a los vibecoders como miembros de la comunidad, incluso si técnicamente no son desarrolladores. Pero tampoco espera que sea fácil. A pesar de señalar que «es realmente obvio que el código debe escribirse con asistentes de IA», Ng admitió que la vibecodificación, que prefiere llamar «codificación de IA», lo deja «mentalmente agotado».

Leer  El costo oculto de los generadores de video de IA del que nadie te advierte

Convertirse en generalistas

En su discurso de apertura, Ng señaló que debido a que la IA ha hecho que el desarrollo de software sea tan rápido, la gestión de productos (no la creación de prototipos) es el nuevo punto de desaceleración para el lanzamiento de nuevos productos. Para mantener el ritmo que la IA hace posible, recomendó que los ingenieros aprendan algunas habilidades de gestión de productos para sortear ese estancamiento.

«Los ingenieros que aprenden a trabajar con productos pueden, francamente, formar un equipo de uno solo», afirmó.

Ese tema de que todos los profesionales, no sólo los desarrolladores, se conviertan en generalistas se repitió durante toda la cumbre. Durante un panel sobre el desarrollo en la era de la IA, Fabian Hedin, CTO de la plataforma de codificación Lovable, una de las startups menos favorecidas en la lista reciente de a16z, señaló que la codificación por vibración puede permitir a las personas con conocimientos profundos en un tema que no es de software «iterar mucho más rápido que antes» utilizando habilidades de codificación. El moderador Laurence Moroney, director de IA en Arm, dijo que esto puede aprovechar al máximo un experto que de otro modo estaría aislado, un cambio en cómo funcionan las habilidades específicas en el lugar de trabajo.

El nuevo desafío para los desarrolladores, dijo Ng durante el panel, será idear el concepto de lo que quieren. Hedin estuvo de acuerdo y agregó que si la IA se encarga de la codificación en el futuro, los desarrolladores deberían centrarse en su intuición al crear un producto o herramienta.

«Lo que peor hará la IA es comprender a los humanos», afirmó.

- Advertisement -[wpcode id="699"]

Por qué los títulos de informática no sirven a los estudiantes

Las realidades de la codificación en la era de la IA han comenzado a afectar a los postgraduados que luchan por encontrar trabajo. La informática, que alguna vez se consideró una especialidad infalible que garantizaba una carrera lucrativa, está decepcionando a los estudiantes, dijo Ng a ZDNET.

Citó las contrataciones excesivas que las empresas de tecnología continuaron (y luego finalmente revirtieron) durante la pandemia de COVID-19 como la razón principal por la que los trabajos de codificación de nivel básico son difíciles de conseguir. Más allá de eso, sin embargo, es una cuestión de que los graduados tengan el tipo adecuado de habilidades de codificación.

«La IA ha transformado la forma en que se debe escribir el código, pero, francamente, muchas universidades han tardado en adaptar el plan de estudios», dijo. «Entonces, si una universidad no ha cambiado significativamente sus planes de estudio desde 2022, entonces no están preparando a sus graduados para los trabajos del mercado actual».

Leer  Este calendario inteligente de pared puede ayudarte a organizarte antes del año nuevo (y está en oferta)

Ng dijo que considera una «mala práctica» que las universidades otorguen títulos de informática sin enseñar a esos estudiantes cómo optimizar el trabajo con asistentes de IA.

«De hecho, me siento mal porque todavía hay personas que reciben una licenciatura en ciencias de la computación y que no han realizado una sola llamada API a un solo modelo de IA», dijo. Para él, reorientar las carreras de informática en torno a esa realidad cerrará la brecha entre los graduados poco preparados y la necesidad de codificadores con experiencia en IA. «Para los recién graduados universitarios que sí conocen esas habilidades, no podemos encontrar suficientes», dijo Ng, una preocupación que también señaló a principios de este otoño en una publicación X.

Miedo público a la IA

En su discurso de apertura, Ng reconoció que «la IA aún no se ha ganado los corazones y las mentes de Estados Unidos», refiriéndose a la percepción pública que circula con frecuencia sobre lo que la IA podría llegar a ser en el peor de los casos. Varios panelistas pidieron a los cientos de desarrolladores presentes en la audiencia que cambiaran esa percepción.

«Se tiene una visión única de lo que no es la IA», afirmó Miriam Vogel, presidenta y directora ejecutiva de Equal AI. Instó a los desarrolladores a no ignorar los temores de la gente sobre la tecnología, sino a participar activamente en la alfabetización en IA, y agregó que «fracasaremos» si ese sentimiento no mejora.

Ng cree que hasta ahora, terceros han sembrado intencionadamente el miedo a la IA.

«Creo que gran parte del miedo a la IA fue impulsado por un puñado de empresas que realizaron casi, francamente, campañas de relaciones públicas para que la gente tuviera miedo de la IA, a menudo para ejercer presión», dijo a ZDNET durante nuestra entrevista. «Creo que eso ha hecho mucho daño al campo de la IA y al liderazgo estadounidense en materia de desarrolladores».

Cuando se le preguntó cómo los desarrolladores pueden impactar eso, dijo que quiere que entablen una conversación sincera sobre lo que funciona y lo que no. «Si el público lo comprende mejor, todos podremos llegar a conclusiones más racionales sobre la tecnología», afirmó.

Muchos de esos temores provienen de AGI, el equivalente algo mal definido de la inteligencia a nivel humano en el que OpenAI y Microsoft, entre otros laboratorios, han puesto sus miras con creciente intensidad. Ng ha sostenido durante mucho tiempo que esas proyecciones son exageradas.

«Si nos fijamos en las increíblemente complicadas recetas de entrenamiento que se utilizan para entrenar estos modelos de IA, no hay forma de que esto sea AGI, si por AGI te refieres a cualquier tarea intelectual que realiza un humano», dijo Ng a ZDNET. «Francamente, gran parte de ese conocimiento todavía está diseñado en estos sistemas, con gente muy inteligente, con una gran cantidad de datos».

Leer  'Wizard of Oz' explotado por AI para la pantalla de esfera gigante

Seguridad y gobernanza

En una mesa redonda, Ng reconoció que el público no sabe realmente qué están haciendo los laboratorios de IA, lo que puede generar pánico, pero instó a la gente a no «hacer un ejercicio de equipo rojo y convertirlo en una sensación en los medios». Ng agregó que está menos a favor del tipo de seguridad y gobernanza de Anthropic, que considera algo limitante. En lugar de presionar los esfuerzos de gobernanza, enfatizó los entornos aislados «que tienen garantía de seguridad» como un camino hacia una IA responsable que no obstaculice la velocidad.

Vogel definió la gobernanza como «descomponer los principios en flujos de trabajo viables», sin crear burocracia. Su preocupación era menos por los hiperescaladores como OpenAI y Meta, y más por las empresas de IA más pequeñas que avanzan antes de haber desarrollado una estructura de gobernanza.

Regulando la IA

«No se puede liderar la IA aprobando regulaciones», dijo Ng durante un panel, hablando sobre el enfoque de la UE a la hora de legislar la IA. Le dio crédito al Plan de Acción de IA de la administración Trump, publicado el verano pasado, por mantener flexibles las regulaciones federales.

Muchos expertos en IA están alarmados por la falta de regulación estadounidense sobre la IA. Algunos ven la incapacidad del gobierno federal para regular las plataformas de redes sociales cuando proliferaron como un ejemplo de lo que podría suceder si la IA continúa superando a la legislación. Ng le dijo a ZDNET que cree que es una equivalencia falsa.

«Veo muchas más propuestas regulatorias malas que buenas», dijo Ng en la entrevista, y agregó que ve la prohibición no consensuada de los deepfake y las acciones de la FTC contra las empresas que utilizan la IA para escalar «conductas engañosas o injustas» como ejemplos de una buena política de IA.

Cuando se le preguntó si hay otras regulaciones que haría a nivel federal, dijo que quiere más requisitos de transparencia para las grandes empresas de IA desde el principio.

«Cuando sucedieron muchas cosas malas en las redes sociales, ninguno de nosotros lo sabía. Incluso la gente dentro del negocio no lo sabía realmente», dijo Ng a ZDNET. «Si tenemos regulaciones que exigen que las empresas más grandes (solo las grandes, para no imponer cargas de cumplimiento irrazonables a las pequeñas empresas emergentes) pero si exigimos cierto nivel de transparencia a las empresas con una gran cantidad de usuarios, eso podría darnos mejores señales para detectar los problemas reales, en lugar de contar con la suerte de que haya un denunciante».

spot_img

Relacionada

Leave a Reply

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

spot_img