La última ola de IA tiene a la industria tecnológica y sus críticos en un frenesí. Las llamadas herramientas generativas de IA como ChatGPT, Replika y Stable Diffusion, que utilizan software especialmente entrenado para crear texto, imágenes, voces y videos similares a los humanos, parecen estar borrando rápidamente las líneas entre humanos y máquinas, verdad y ficción.
A medida que sectores que van desde la educación hasta la atención médica, los seguros y el marketing consideran cómo la IA podría remodelar sus negocios, un crescendo de exageraciones ha dado lugar a esperanzas salvajes y temores desesperados. Lo que alimenta a ambos es la sensación de que las máquinas se están volviendo demasiado inteligentes, demasiado rápidas, y algún día podrían escaparse de nuestro control. “Lo que las armas nucleares son para el mundo físico”, proclamó recientemente el especialista en ética tecnológica Tristan Harris, “La IA es para todo lo demás.”
Los beneficios y los lados oscuros son reales, dicen los expertos. Pero a corto plazo, la promesa y los peligros de la IA generativa pueden ser más modestos de lo que parecen los titulares.
“La combinación de fascinación y miedo, o euforia y alarma, es algo que ha saludado cada nueva ola tecnológica desde la primera computadora totalmente digital”, dijo Margaret O’Mara, profesora de historia en la Universidad de Washington. Al igual que con los cambios tecnológicos pasados, agregó, los modelos de IA de hoy podrían automatizar ciertas tareas cotidianas, obviar algunos tipos de trabajos, resolver algunos problemas y exacerbar otros, pero “no será la fuerza singular la que cambie todo”.
Ni la inteligencia artificial ni los chatbots son nuevos. Varias formas de IA ya impulsan el feed “For You” de TikTok, las listas de reproducción de música personalizadas de Spotify, los sistemas de conducción de piloto automático de Tesla, el desarrollo de fármacos farmacéuticos y los sistemas de reconocimiento facial utilizados en investigaciones criminales. Los chatbots de computadora simples han existido desde la década de 1960 y se usan ampliamente para el servicio al cliente en línea.
Lo nuevo es el fervor que rodea a la IA generativa, una categoría de herramientas de IA que se basa en océanos de datos para crear su propio contenido (arte, canciones, ensayos, incluso código de computadora) en lugar de simplemente analizar o recomendar contenido creado por humanos. Si bien la tecnología detrás de la IA generativa se ha estado gestando durante años en laboratorios de investigación, las empresas emergentes y las empresas recién comenzaron a lanzarlas al público.
Las herramientas gratuitas, como el chatbot ChatGPT de OpenAI y el generador de imágenes DALL-E 2, han capturado la imaginación a medida que las personas comparten formas novedosas de usarlas y se maravillan con los resultados. Su popularidad tiene a los gigantes de la industria, incluidos Microsoft, Google y Facebook, compitiendo para incorporar herramientas similares en algunos de sus productos más populares, desde motores de búsqueda hasta procesadores de texto.
Sin embargo, por cada historia de éxito, al parecer, hay un escenario de pesadilla.
La facilidad de ChatGPT para redactar correos electrónicos gramaticalmente correctos y con un sonido profesional ha hecho que sea un ahorro de tiempo diario para muchas personas, empoderando a las personas que luchan con la alfabetización. Pero la Universidad de Vanderbilt usó ChatGPT para escribir un correo electrónico para toda la universidad ofreciendo condolencias genéricas en respuesta a un tiroteo en el estado de Michiganenfureciendo a los estudiantes.
ChatGPT y otras herramientas de lenguaje de IA también pueden escribir código de computadora, diseñar juegos y extraer información de los conjuntos de datos. Pero no hay garantía de que el código funcione, que los juegos tengan sentido o que las ideas sean correctas. Ya se ha demostrado que el bot Bing AI de Microsoft da respuestas falsas a las consultas de búsqueda, y las primeras iteraciones incluso se volvieron combativas con los usuarios. un juego que ChatGPT aparentemente inventado resultó ser una copia de un juego que ya existia.
GitHub Copilot, una herramienta de codificación de IA de OpenAI y Microsoft, se ha vuelto rápidamente indispensable para muchos desarrolladores de software, ya que predice sus próximas líneas de código y sugiere soluciones a problemas comunes. Sin embargo, sus soluciones no siempre son correctas y puede introducir código defectuoso en los sistemas si los desarrolladores no tienen cuidado.
Gracias a los sesgos en los datos en los que se entrenó, los resultados de ChatGPT pueden ser no solo inexactos sino también ofensivos. En un ejemplo infame, ChatGPT compuso un programa de software corto que sugería que una manera fácil de saber si alguien sería un buen científico era simplemente verificar si lo son. tanto blanco como masculino. OpenAI dice que está trabajando constantemente para abordar estos resultados defectuosos y mejorar su modelo.
Stable Diffusion, un sistema de texto a imagen de la start-up Stability AI con sede en Londres, permite a cualquier persona producir imágenes visualmente llamativas en una amplia gama de estilos artísticos, independientemente de su habilidad artística. Los blogueros y especialistas en marketing lo adoptaron rápidamente y herramientas similares para generar ilustraciones temáticas para artículos y sitios web sin necesidad de pagarle a un fotógrafo o comprar material de archivo.
Pero algunos artistas han argumentado que Stable Diffusion imita explícitamente su trabajo sin crédito ni compensación. imágenes falsas demandó a Stability AI en febrero, alegando que violó los derechos de autor al usar 12 millones de imágenes para entrenar a sus modelos, sin pagar por ellas ni pedir permiso.
Stability AI no respondió a una solicitud de comentarios.
Las empresas emergentes que usan IA para hablar texto con voces humanas apuntan a usos creativos como audiolibros, en los que a cada personaje se le podría dar una voz distintiva que coincida con su personalidad. El actor Val Kilmer, que perdió la voz por un cáncer de garganta en 2015, utilizó una herramienta de IA para recrearla.
Ahora, los estafadores usan cada vez más tecnología similar para imitar las voces de personas reales sin su consentimiento, llamando a los familiares del objetivo y fingiendo que necesitan dinero de emergencia.
Frente a una nueva tecnología influyente, existe la tentación de tomar partido, centrándose en los beneficios o los daños, dijo Arvind Narayanan, profesor de informática en la Universidad de Princeton. Pero la IA no es un monolito, y cualquiera que diga que todo es bueno o malo está simplificando demasiado. En este punto, dijo, no está claro si la IA generativa resultará ser una tecnología transformadora o una moda pasajera.
“Dada la rapidez con la que se desarrolla la IA generativa y la frecuencia con la que aprendemos sobre nuevas capacidades y riesgos, mantener los pies en la tierra cuando se habla de estos sistemas se siente como un trabajo de tiempo completo”, dijo Narayanan. “Mi sugerencia principal para la gente común es que se sientan más cómodos aceptando que simplemente no sabemos con certeza cómo se desarrollarán muchos de estos desarrollos emergentes”.
La capacidad de una tecnología para ser utilizada tanto para bien como para mal no es exclusiva de la IA generativa. Otros tipos de herramientas de IA, como las que se utilizan para descubrir nuevos productos farmacéuticos, tienen sus propios lados oscuros. El año pasado, los investigadores descubrieron que los mismos sistemas podían generar ideas sobre algunos 40.000 nuevas armas biológicas potencialmente letales.
Las tecnologías más familiares, desde los algoritmos de recomendación hasta las redes sociales y los drones con cámara, son igualmente susceptibles de aplicaciones inspiradoras e inquietantes. Pero la IA generativa está inspirando reacciones especialmente fuertes, en parte porque puede hacer cosas (componer poemas o hacer arte) que durante mucho tiempo se pensó que eran exclusivamente humanas.
La lección no es que la tecnología sea inherentemente buena, mala o incluso neutral, dijo O’Mara, el profesor de historia. La forma en que se diseña, implementa y comercializa para los usuarios puede afectar el grado en que algo como un chatbot de IA se presta al daño y al abuso. Y la exageración “sobrecalentada” sobre ChatGPT, con personas que declaran que transformará la sociedad o conducirá a “señores supremos de robots”, corre el riesgo de nublar el juicio tanto de sus usuarios como de sus creadores.
“Ahora tenemos este tipo de carrera armamentista de IA, esta carrera para ser el primero”, dijo O’Mara. “Y ahí es donde está mi preocupación. Si tienes compañías como Microsoft y Google compitiendo entre sí para ser la compañía que tiene la búsqueda habilitada por IA, si estás tratando de moverte muy rápido para hacer eso, ahí es cuando las cosas se rompen”.