Los autores sostienen que el ritmo de adopción de la IA es más lento que el de la innovación.
Mucha gente utiliza herramientas de IA ocasionalmente, pero en Estados Unidos la intensidad (en horas de uso por día) sigue siendo baja en relación con el tiempo total de trabajo.
No es sorprendente que la adopción vaya a la zaga de la innovación, ya que las personas y las empresas necesitan tiempo para adaptar hábitos y flujos de trabajo a las nuevas tecnologías.
La adopción también se complica por el hecho de que gran parte del conocimiento es tácito y específico de la organización, los datos pueden no estar en el formato correcto y su uso puede estar restringido por regulaciones.
Hace un siglo se aplicaron restricciones similares cuando se electrificaron las fábricas: esto llevó décadas, ya que hubo que repensar por completo los planos de planta, los procesos y las estructuras organizativas.
Además, las limitaciones al ritmo de la innovación en IA en sí pueden ser más graves de lo que parecen, sostiene el artículo, ya que muchas aplicaciones (como el desarrollo de fármacos, los vehículos autónomos o incluso simplemente reservar unas vacaciones) requieren pruebas exhaustivas en el mundo real.
Esto puede resultar lento y costoso, especialmente en áreas críticas para la seguridad que están altamente reguladas. Por lo tanto, es probable que el impacto económico “sea gradual”, concluyen los autores, y no esté asociado con una automatización abrupta de una gran parte de la economía.
Una encuesta del RBA encontró que la adopción de la IA por parte de las empresas australianas ha sido “poco sistemática”. Los empleados utilizaban con frecuencia ChatGPT.Crédito: Reuters
Incluso una lenta difusión de la IA cambiaría la naturaleza del trabajo. A medida que más tareas sean susceptibles de automatización, “un porcentaje cada vez mayor de trabajos y tareas humanos estarán relacionados con el control de la IA”.
Aquí hay una analogía con la Revolución Industrial, en la que los trabajadores pasaron de tareas manuales como tejer a supervisar máquinas que hacían esas tareas y manejar situaciones que las máquinas no podían (por ejemplo, intervenir cuando se atascaban).
En lugar de que la IA robe empleos a gran escala, las tareas podrían consistir cada vez más en configurar, monitorear y controlar sistemas basados en IA. Sin supervisión humana, especulan los señores Narayanan y Kapoor, la IA podría ser “demasiado propensa a errores para ser económicamente viable”.
Esto, a su vez, tiene un impacto en el riesgo de la IA. Lo sorprendente es que los autores critican el énfasis en la “alineación” de los modelos de IA, es decir, los esfuerzos por garantizar que los resultados sean consistentes con los objetivos de sus creadores humanos.
El hecho de que un resultado particular sea perjudicial a menudo depende del contexto que la gente pueda entender, pero el modelo carece de eso, argumentan.
Por ejemplo, un modelo al que se le pide que escriba un correo electrónico convincente no puede saber si ese mensaje se está utilizando para marketing legítimo o para phishing nefasto.
Intentar crear un modelo de IA del que no se pueda abusar “es como intentar crear una computadora que no pueda usarse para hacer cosas malas”, escriben los autores.
En cambio, sugieren que las defensas contra el uso indebido de la IA, por ejemplo para crear malware informático o armas biológicas, deberían centrarse más en el fortalecimiento de las protecciones existentes de ciberseguridad y bioseguridad.
Esto también aumenta la resiliencia ante formas de estas amenazas que no involucran a la IA.
Terminator es ficticio
Estas consideraciones sugieren una serie de acciones para reducir el riesgo y aumentar la resiliencia.
Estos incluyen la protección de denunciantes (como es el caso en muchas otras industrias), la divulgación obligatoria del uso de la IA (como es el caso de la protección de datos), el registro para rastrear su uso (como con los automóviles y los drones) y la notificación obligatoria de incidentes (como con los ataques cibernéticos).
En resumen, el artículo concluye que las lecciones de tecnologías anteriores pueden aplicarse fructíferamente a la IA, y considerar la tecnología como “normal” conduce a políticas más sensatas que verla como una superinteligencia inminente.
Wayve (autos autónomos) y Uber han anunciado planes para comenzar pruebas en vías públicas de vehículos totalmente autónomos de nivel 4 en Londres.
El documento no está exento de defectos. A veces parece una polémica contra la exageración de la IA en general. Es prolijo en algunos lugares, presenta creencias como hechos y no todos sus argumentos son convincentes, aunque lo mismo ocurre con el disgusto utópico y distópico.
Incluso los pragmáticos de la IA pueden sentir que los autores son demasiado indiferentes ante el potencial de perturbación del mercado laboral, subestiman la velocidad de la adopción de la IA, subestiman los riesgos de desalineación y engaño, y se muestran complacientes con la regulación.
Su predicción de que la IA no podrá “superar significativamente a los humanos capacitados en predicción o persuasión” parece extrañamente exagerada. E incluso si los escenarios utópicos y distópicos están equivocados, la IA aún podría ser mucho más transformadora de lo que describen los autores.
Pero muchas personas asentirán con la cabeza cuando lean este rechazo al excepcionalismo de la IA. La visión mediocre es menos dramática que las predicciones de un inminente “comienzo rápido” o apocalipsis y, por lo tanto, tiende a no recibir mucha atención.
Por eso los autores creen que tiene sentido articular esta posición: porque creen que “alguna versión de nuestra visión del mundo está muy extendida”.
Dadas las preocupaciones actuales sobre la sostenibilidad de las inversiones en IA, su artículo representa una alternativa refrescante y aburrida a la histeria de la IA.
© 2025 El periódico The Economist Limited. Reservados todos los derechos