Por Lance Eliot, experto en tendencias de IA
Ya esperamos que los humanos muestren destellos de brillantez. Puede que no suceda todo el tiempo, pero el acto en sí es bienvenido y no del todo perturbador cuando ocurre.
¿Qué pasa cuando la Inteligencia Artificial (IA) parece mostrar un acto de novedad? Cualquier instancia de este tipo está obligada a llamar nuestra atención; las preguntas surgen de inmediato.
¿Cómo se le ocurrió a la IA la idea aparentemente inesperada o la nueva indicación? ¿Fue un error o se ajustaba a los parámetros de lo que se esperaba que produjera la IA? También está la consideración inmediata de si la IA de alguna manera se está deslizando hacia el precipicio de convertirse en consciente.
Tenga en cuenta que ningún sistema de IA existente está cerca de alcanzar la conciencia, a pesar de las afirmaciones y falsedades que se publican en los medios. Como tal, si la IA de hoy parece hacer algo que parece ser un acto novedoso, no debe llegar a la conclusión de que esto es una señal de la perspicacia humana dentro de la tecnología o el surgimiento del ingenio humano entre la IA.
Eso es un puente antropomórfico demasiado lejos.
La realidad es que cualquier novedad “perspicaz” de IA de este tipo se basa en varios algoritmos computacionales concretos y coincidencia de patrones basados en datos tangibles.
En la columna de hoy, veremos de cerca un ejemplo de un acto de novela impulsado por IA, ilustrado a través del juego Go, y relacionaremos estas facetas con el advenimiento de los verdaderos autos autónomos basados en IA como un medio de comprender las ramificaciones relacionadas con la IA versus los humanos.
Tenga en cuenta que la capacidad de detectar o sugerir una novedad se realiza metódicamente mediante un sistema de IA, mientras que, por el contrario, nadie puede decir con certeza cómo los humanos pueden idear ideas o intuiciones novedosas.
Tal vez nosotros también estemos atados por algunas facetas internas de tipo mecanicista, o tal vez esté sucediendo algo más. Algún día, con suerte, abriremos el funcionamiento interno secreto de la mente y finalmente sabremos cómo pensamos. Supongo que podría socavar el misterio y el aura mágica que a menudo acompaña a aquellos de nosotros que tenemos momentos de visiones fuera de la caja, aunque cambiaría ese enigma por saber cómo funciona realmente el truco de las copas y las bolas (ir detrás de la cortina, por así decirlo).
Hablando de novedad, un famoso juego que implica jugar al Go puede proporcionar una iluminación útil sobre este tema general.
Go es un juego de mesa popular en la misma categoría de complejidad que el ajedrez. Se discute qué es más difícil, el ajedrez o el Go, pero yo no me voy a meter en ese lío. En aras de una discusión civilizada, el punto clave es que el Go es muy complejo y requiere una intensa concentración mental, especialmente a nivel de torneo.
Generalmente, Go consiste en intentar capturar territorio en un tablero de Go estándar, que consta de una cuadrícula de 19 por 19 líneas que se cruzan. Para aquellos de ustedes que nunca han intentado jugar Go, el tipo de juego similar más cercano podría ser el de conectar los puntos que jugaban en la infancia, que implica agarrar territorio, aunque Go es mucho más complicado.
No es necesario que sepa nada en particular sobre Go para obtener la esencia de lo que se discutirá a continuación con respecto al acto de la novedad humana y el acto de la novedad de la IA.
Hace unos cuatro años se llevó a cabo una famosa competencia de Go que enfrentó a uno de los mejores jugadores profesionales de Go del mundo, Lee Sedol, contra un programa de IA que había sido diseñado para jugar Go, denominado AlphaGo. Hay un fascinante documental sobre el concurso y muchos artículos y videos en línea que cubren en detalle el partido, incluido el análisis posterior al juego.
Retroceda en el tiempo hasta 2016 y reviva lo que sucedió.
La mayoría de los desarrolladores de IA no anticiparon que la IA de esa época sería lo suficientemente competente como para vencer a un jugador superior de Go. Claro, la IA ya había sido capaz de superar a algunos de los mejores jugadores de ajedrez y, por lo tanto, ofrecía un atisbo de expectativa de que el Go finalmente se llevaría a cabo por igual, pero no había ningún programa de Go que hubiera podido competir en los niveles máximos del Go humano. jugadores La mayoría esperaba que probablemente fuera alrededor del año 2020 antes de que las capacidades de la IA fueran suficientes para competir en torneos de Go de clase mundial.
DeepMind creó AlphaGo usando aprendizaje profundo, aprendizaje automático
Una pequeña empresa de tecnología llamada DeepMind Technologies ideó el sistema de juego AlphaGo AI (la empresa fue adquirida más tarde por Google). Usando técnicas de Machine Learning y Deep Learning, el programa AlphaGo se estaba renovando y ajustando hasta el torneo real, un tipo típico de contorsiones de último momento que muchos de nosotros hemos hecho cuando intentamos obtener la última ventaja adicional en algo que está a punto de ser demostrado.
Esta fue una competencia monumental que atrajo el interés mundial.
Los jugadores humanos de Go tenían dudas de que el programa AlphaGo ganaría. Muchos técnicos de IA tenían dudas de que AlphaGo ganaría. Incluso los desarrolladores de AlphaGo no estaban seguros de qué tan bien funcionaría el programa, incluidos los temores de quedarse despierto por la noche de que el programa AlphaGo encontraría un error o entraría en una especie de modo delirante y cometería errores absolutos y jugaría tontamente.
Se invirtió un millón de dólares en premios para la competencia. Se jugarían cinco juegos de Go, uno por día, junto con las reglas asociadas sobre tomar descansos, etc. Algunos predijeron que Sedol ganaría fácilmente los cinco juegos, haciéndolo sin sudar. Los expertos en inteligencia artificial se aferraban a la esperanza de que AlphaGo ganaría al menos uno de los cinco juegos y, de lo contrario, se presentaría como un nivel respetable de jugador de Go durante todo el concurso.
En el primer partido, ganó AlphaGo.
Esto fue más o menos una sorpresa mundial. Sedol se sorprendió. Muchos jugadores de Go se sorprendieron de que un programa de computadora pudiera competir y vencer a alguien en el nivel de juego de Sedol. Todo el mundo empezó a dar algo de credibilidad callejera al programa AlphaGo y a los esfuerzos de los desarrolladores de IA.
Creció la tensión para el próximo partido.
Para el segundo juego, se anticipó que Sedol podría cambiar significativamente su enfoque del concurso. Tal vez se había confiado demasiado al llegar a la competencia, afirmaron algunos con dureza, y la pérdida del primer juego lo despertaría a la importancia de poner toda su concentración en el torneo. O, posiblemente, había jugado como si estuviera compitiendo con un jugador menos capaz y, por lo tanto, no estaba haciendo todo lo posible para intentar ganar el partido.
¿Qué pasó en el segundo juego?
Resulta que AlphaGo prevaleció, nuevamente, y también hizo algo que aparentemente fue notable para aquellos que juegan con avidez a Go. el 37el jugada del partido, el programa AlphaGo optó por hacer una colocación en el tablero Go en un lugar que nadie esperaba especialmente. Fue un movimiento sorpresa, que llegó a la mitad de un partido que, por lo demás, era relativamente convencional en la naturaleza de los movimientos realizados tanto por Sedol como por AlphaGo.
En ese momento, en tiempo real, la especulación desenfrenada fue que el movimiento fue un error total por parte del programa AlphaGo.
En cambio, se hizo famoso como un movimiento novedoso, conocido ahora como “Move 37” y anunciado en Go y usado coloquialmente en general para sugerir cualquier instancia en la que AI hace algo de manera novedosa o inesperada.
En el tercer partido, AlphaGo volvió a ganar, ahora después de haber vencido con éxito a Sedol en una competencia ganadora de 3 de 5. Sin embargo, continuaron jugando un cuarto y un quinto juego.
Durante el cuarto juego, las cosas estaban reñidas como de costumbre y el juego iba cara a cara (bueno, cara a cara contra la IA). Ponte en la piel de Sedol. En cierto sentido, no era solo un jugador de Go, de alguna manera representaba a toda la humanidad (un punto de vista injusto y equivocado, pero omnipresente de todos modos), y la presión estaba sobre él para ganar en menos un juego. Solo un juego sería algo para colgarse el sombrero y reforzar la fe en la humanidad (nuevamente, una forma sin sentido de verlo).
En el movimiento setenta y ocho del cuarto juego, Sedol hizo la llamada jugada de “cuña” que no era convencional y sorprendió a los espectadores. El siguiente movimiento de AlphaGo estuvo mal y disminuyó la probabilidad de una victoria del sistema de IA. Después de un juego adicional, finalmente AlphaGo arrojó la toalla y renunció al partido, por lo que Sedol finalmente obtuvo una victoria contra la IA en su haber. Terminó perdiendo el quinto juego, por lo que AlphaGo ganó cuatro juegos, Sedol ganó uno). Su movimiento también se hizo famoso, generalmente conocido como “Move 78” en la tradición de Go playing.
Algo más que vale la pena conocer involucra la estrategia general para la que se diseñó AlphaGo.
Cuando juegas un juego, digamos conectar los puntos, puedes apuntar a agarrar tantos cuadrados en cada momento del juego, haciéndolo bajo la creencia de que inevitablemente ganarás por la acumulación de esos éxitos orientados tácticamente. Los jugadores humanos de Go a menudo tienden a jugar de esa manera, como también se puede decir de los jugadores de ajedrez y de casi cualquier tipo de juego.
Otro enfoque consiste en jugar para ganar, aunque solo sea por un margen muy pequeño, siempre que ganes. En ese caso, es posible que no esté motivado para que cada movimiento táctico gane territorio a corto plazo o sume puntos de inmediato, y esté dispuesto a jugar un juego de mayor alcance per se. El mantra proverbial es que si eres miope, puedes ganar algunas de las batallas, pero eventualmente perder la guerra. Por lo tanto, podría ser una mejor estrategia mantener la vista en el premio, ganar la guerra, aunque eso signifique que hay batallas y escaramuzas que perder en el camino.
Los desarrolladores de IA diseñaron AlphaGo con ese tipo de perspectiva macro subyacente al funcionamiento del sistema de IA.
Los humanos pueden tener un momento especialmente difícil para elegir en el momento de hacer un movimiento que podría parecer malo o desaconsejado, como ceder territorio, darse cuenta de que no pueden apretar los dientes y tomar un bulto o dos durante el juego. La vergüenza en el momento es difícil de compensar apostando a que todo saldrá bien y al final prevalecerá.
Para un sistema de IA, no hay apariencia de ese tipo de sentimiento involucrado, y se trata de probabilidades y probabilidades calculadas.
Ahora que hemos cubierto el legendario partido de Go, consideremos algunas lecciones aprendidas sobre la novedad.
El “Movimiento 38” realizado por el sistema de IA no fue mágico. Fue un movimiento interesante, seguro, y los desarrolladores de IA indicaron más tarde que el movimiento era uno que la IA había calculado que rara vez sería realizado por un jugador humano.
Esto se puede interpretar de dos maneras (al menos).
Una interpretación es que un jugador humano no haría ese movimiento porque los humanos tienen razón y saben que sería un movimiento pésimo.
Otra interpretación es que los humanos no harían ese movimiento debido a la creencia de que el movimiento es imprudente, pero esto podría ser el resultado de que los humanos no evaluaran suficientemente el valor final del movimiento, a largo plazo, y quedar atrapados en un apariencia de juego de marco de tiempo más corto.
En este caso, resultó ser un buen movimiento, tal vez un movimiento brillante, y cambió el curso del juego en beneficio de la IA. Por lo tanto, lo que parecía brillante fue de hecho un movimiento calculado que pocos humanos habrían imaginado como valioso y por lo que empujó a los humanos a repensar cómo piensan sobre tales asuntos.
Algunas lecciones útiles de recapitulación:
Exhibiendo la percepción humana autolimitada. Cuando la IA hace algo aparentemente novedoso, puede verse como novedoso simplemente porque los humanos ya han predeterminado lo que es habitual y cualquier cosa más allá de eso se ve embotada por la suposición de que es indigno o erróneo. Se podría decir que estamos mentalmente atrapados por nuestro propio dibujo de las líneas de lo que se considera dentro y fuera de la caja.
Humanos que explotan la IA para obtener información adicional. Los humanos pueden evaluar de manera rentable una novedad impulsada por IA para recalibrar potencialmente el pensamiento humano sobre un tema determinado, ampliando nuestra comprensión al aprovechar algo que la IA, a través de su gran capacidad de cálculo, podría detectar o detectar que aún no hemos determinado. Por lo tanto, además de admirar la novedad, debemos buscar mejorar nuestra destreza mental mediante cualquier fuente que brille, incluido un sistema de IA.
La novedad de la IA es una espada de doble filo. Debemos tener en cuenta todos los sistemas de IA y su posibilidad de actuar de una manera novedosa, que puede ser buena o mala. En el juego de Go funcionó bien. En otras circunstancias, la IA que explota la ruta de la novedad podría descarrilarse, por así decirlo.
Veamos cómo se puede hacer tangible esto explorando el advenimiento de los verdaderos autos autónomos basados en IA.
Para ver mi marco sobre autos autónomos de IA, vea el enlace aquí: https://aitrends.com/ai-insider/framework-ai-self-driving-driverless-cars-big-picture/
Por qué este es un esfuerzo lunar, mira mi explicación aquí: https://aitrends.com/ai-insider/self-driving-car-mother-ai-projects-moonshot/
Para obtener más información sobre los niveles como un tipo de escala de Richter, vea mi discusión aquí: https://aitrends.com/ai-insider/richter-scale-levels-self-driving-cars/
Para el argumento sobre la bifurcación de los niveles, vea mi explicación aquí: https://aitrends.com/ai-insider/reframing-ai-levels-for-self-driving-cars-bifurcation-of-autonomy/
Comprender los niveles de los autos sin conductor
Como aclaración, los verdaderos autos sin conductor son aquellos en los que la IA conduce el auto completamente sola y no hay asistencia humana durante la tarea de conducción.
Estos vehículos sin conductor se consideran de Nivel 4 y Nivel 5, mientras que un automóvil que requiere un conductor humano para compartir el esfuerzo de conducción generalmente se considera de Nivel 2 o Nivel 3. Los automóviles que comparten la tarea de conducción se describen como siendo semiautónomos y, por lo general, contienen una variedad de complementos automatizados que se conocen como ADAS (Sistemas avanzados de asistencia al conductor).
Todavía no hay un verdadero automóvil autónomo en el Nivel 5, que aún no sabemos si será posible lograrlo, ni cuánto tiempo tomará llegar allí.
Mientras tanto, los esfuerzos del Nivel 4 están tratando de obtener algo de tracción gradualmente al someterse a pruebas en vías públicas muy limitadas y selectivas, aunque existe controversia sobre si estas pruebas deberían permitirse per se (todos somos conejillos de indias de vida o muerte en un experimento). teniendo lugar en nuestras carreteras y caminos, sostienen algunos).
Para conocer por qué generalmente se evita el pilotaje remoto o la operación de automóviles autónomos, vea mi explicación aquí: https://aitrends.com/ai-insider/remote-piloting-is-a-self-driving-car-crutch/
Para tener cuidado con las noticias falsas sobre los autos sin conductor, vea mis consejos aquí: https://aitrends.com/ai-insider/ai-fake-news-about-self-driving-cars/
Las implicaciones éticas de los sistemas de conducción de IA son significativas, vea mi indicación aquí: http://aitrends.com/selfdrivingcars/ethically-ambiguous-self-driving-cars/
Tenga en cuenta las trampas de la normalización de la desviación cuando se trata de automóviles autónomos, este es mi llamado a las armas: https://aitrends.com/ai-insider/normalization-of-deviance-endangers-ai-self-driving-cars/
Coches autónomos y actos de novedad
Para los vehículos autónomos verdaderos de nivel 4 y nivel 5, no habrá un conductor humano involucrado en la tarea de conducción. Todos los ocupantes serán pasajeros; la IA está conduciendo.
Se podría decir que la IA está jugando un juego, un juego de conducción, que requiere la toma de decisiones y la planificación estratégica, como cuando se juega al go o al ajedrez, aunque en este caso se trata de asuntos de vida o muerte conduciendo un coche de varias toneladas por nuestras vías públicas.
Nuestra suposición básica es que el sistema de conducción de IA siempre adoptará un enfoque probado y verdadero para cualquier decisión de conducción. Esta suposición se basa en cierta medida en la noción de que la IA es un tipo de robot o autómata que carece de cualquier sesgo humano o debilidad humana.
En realidad, no hay razón para hacer este tipo de suposiciones. Sí, generalmente podemos descartar el aspecto de que la IA no mostrará la emoción de un tipo humano, y también sabemos que la IA no estará ebria ni bajo los efectos del alcohol en sus esfuerzos de conducción. No obstante, si la IA ha sido entrenada usando Machine Learning (ML) y Deep Learning (DL), puede captar sutilezas de patrones de comportamiento humano en los datos sobre la conducción humana, de los cuales también utilizará o imitará para elegir su conducción. acciones (por ejemplo, vea mis publicaciones de columna que involucran un análisis de posibles sesgos raciales en la IA y la posibilidad de sesgos de género).
Volviendo al tema de la novedad, analicemos un caso de uso específico.
Hace algunos años, estaba manejando en una carretera abierta, yendo a la velocidad prevaleciente de alrededor de 65 millas por hora, y ocurrió algo casi inimaginable. Un automóvil que venía hacia mí en el carril opuesto y que probablemente viajaba a alrededor de 60 a 70 millas por hora, de repente e inesperadamente se desvió hacia mi carril. Fue uno de esos momentos que no puedes anticipar.
No parecía haber ninguna razón para que el otro conductor se dirigiera hacia mí, en mi carril de tráfico, y viniera hacia mí para una colisión frontal inminente y escalofriantemente aterradora. Si había escombros en el otro carril, podría haber sido una pista de que tal vez este otro conductor simplemente estaba tratando de sortear la obstrucción. Sin escombros. Si había un automóvil que se movía más lento, el conductor podría haber querido dar una vuelta rápida para pasarlo. No, no había absolutamente ninguna base discernible para esta maniobra radical y potencialmente mortal.
¿Qué harías?
Vamos, apúrate, el tiempo corre y solo tienes unas pocas décimas de segundo para tomar una decisión de conducción de vida o muerte.
Podría permanecer en su carril y esperar que el otro conductor se dé cuenta del error de su camino, optando por regresar a su carril en el último momento. O bien, podría pasar de manera proactiva al carril contrario, dándole al otro conductor un camino despejado en su carril, pero esto podría ser un juego arriesgado en el que el otro conductor elige volver a su carril (además, había otro tráfico más adelante). detrás de ese conductor, por lo que entrar en el carril contrario era bastante arriesgado).
Bien, entonces, ¿se queda en su carril o se desvía hacia el carril opuesto?
Me atrevo a decir que la mayoría de la gente estaría dividida entre esas dos opciones. Ninguno de los dos es apetecible.
Supongamos que la IA de un automóvil autónomo se enfrenta a la misma circunstancia.
¿Qué haría la IA?
Lo más probable es que incluso si la IA hubiera sido alimentada con miles y miles de millas de conducción a través de una base de datos sobre conducción humana mientras se sometía al entrenamiento ML/DL, es posible que no haya instancias de naturaleza cara a cara y, por lo tanto, no patrón previo a utilizar para tomar esta onerosa decisión.
De todos modos, aquí hay un giro.
Imagine que la IA calculó las probabilidades de qué camino tomar y, de alguna manera computacional, llegó a la conclusión de que el automóvil autónomo debería entrar en la zanja que estaba a la derecha de la carretera. Esto tenía la intención de evitar por completo una colisión con el otro automóvil (la IA estimó que una colisión frontal sería una muerte casi segura para los ocupantes). La IA estimó que entrar en la zanja a tan alta velocidad indiscutiblemente destrozaría el coche y causaría grandes lesiones corporales a los ocupantes, pero las probabilidades de muerte asegurada se calcularon (digamos) como más bajas que las posibilidades de la opción frontal (esto es una variante del infame Problema del Trolley, como se cubre en mis columnas).
Apuesto a que admitiría que la mayoría de los humanos no estarían relativamente dispuestos a apuntar deliberadamente a esa zanja, que saben con certeza que será un accidente y una muerte potencial, mientras que en cambio estarían dispuestos (a regañadientes) a correr el riesgo esperado. de virar hacia el otro carril o mantener el rumbo y desear lo mejor.
En cierto sentido, la IA podría parecer haber tomado una decisión novedosa. Es uno en el que (supondremos) pocos humanos habrían pensado explícitamente.
Volviendo al resumen anterior de los puntos sobre la novedad de la IA, podría sugerir que, en este ejemplo, la IA ha superado una limitación autoimpuesta por el ser humano al haber considerado opciones que de otro modo serían “impensables”. A partir de esto, tal vez podamos aprender a ampliar nuestra visión de opciones que de otro modo no parecen evidentes.
El otro elemento de resumen fue que la novedad de la IA puede ser un arma de doble filo.
Si la IA reaccionó conduciendo a la zanja, y usted estaba dentro del automóvil autónomo y resultó gravemente herido, ¿creería más tarde que la IA actuó de una manera novedosa o que actuó de manera errónea o adversa?
Algunos podrían decir que si vivieras para hacer esa pregunta, aparentemente la IA tomó la decisión correcta. El contraargumento es que si la IA hubiera optado por una de las otras opciones, tal vez habrías pasado junto al otro automóvil y no habrías recibido ni un solo rasguño.
Para obtener más detalles sobre ODD, consulte mi indicación en este enlace aquí: https://www.aitrends.com/ai-insider/amalgamating-of-operational-design-domains-odds-for-ai-self-driving-cars/
Sobre el tema de los autos sin conductor todoterreno, aquí está mi obtención de detalles: https://www.aitrends.com/ai-insider/off-roading-as-a-challenging-use-case-for-ai-autonomous-cars/
Insté a que debe haber un director de seguridad en los fabricantes de automóviles autónomos, aquí está la primicia: https://www.aitrends.com/ai-insider/jefe-de-seguridad-oficiales-necesitados-en-ai-el-caso-de-ai-self-driving-cars/
Espere que las demandas se conviertan gradualmente en una parte importante de la industria de automóviles autónomos, vea mis detalles explicativos aquí: http://aitrends.com/selfdrivingcars/self-driving-car-lawsuits-bonanza-ahead/
Conclusión
Para aquellos de ustedes que se preguntan qué sucedió realmente, mis estrellas de la suerte me miraban ese día y sobreviví con nada más que una llamada cercana. Decidí permanecer en mi carril, aunque era tentador desviarme hacia el carril opuesto, y por algún milagro, el otro conductor de repente volvió al carril opuesto.
Cuando cuento la historia, mi corazón sigue latiendo y empiezo a sudar.
En general, la IA que parece participar en enfoques novedosos de los problemas puede ser ventajosa y, en algunas circunstancias, como jugar un juego de mesa, puede ser correcta o incorrecta, por lo que estar equivocado no pone especialmente en juego vidas humanas.
Para los verdaderos autos autónomos basados en IA, hay vidas en juego.
Tendremos que proceder con atención y con los ojos bien abiertos sobre cómo queremos que funcionen los sistemas de conducción de IA, incluido el cálculo de probabilidades y la derivación de opciones mientras estamos al volante del vehículo.
Derechos de autor 2021 Dr. Lance Eliot