¿Pausar IA? – O´Reilly

Es difícil ignorar la discusión en torno a la Carta abierta abogando por una pausa en el desarrollo de sistemas avanzados de IA. ¿Son peligrosos? ¿Destruirán a la humanidad? ¿Condenarán a todos menos a unos pocos de nosotros a vidas aburridas y empobrecidas? Si estos son realmente los peligros a los que nos enfrentamos, detener el desarrollo de la IA durante seis meses es sin duda una medida preventiva débil e ineficaz.

Es más fácil ignorar las voces que defienden el uso responsable de la IA. El uso responsable de la IA requiere que la IA sea transparente, justa y, cuando sea posible, explicable. Usar IA significa auditar los resultados de los sistemas de IA para garantizar que sean justos; significa documentar los comportamientos de los modelos de IA y los conjuntos de datos de entrenamiento para que los usuarios sepan cómo se recopilaron los datos y qué sesgos son inherentes a esos datos. Significa monitorear los sistemas después de que se implementan, actualizarlos y ajustarlos según sea necesario porque cualquier modelo eventualmente se volverá “obsoleto” y comenzará a funcionar mal. Significa diseñar sistemas que aumenten y liberen las capacidades humanas, en lugar de reemplazarlas. Significa comprender que los humanos son responsables de los resultados de los sistemas de IA; “eso es lo que hizo la computadora” no es suficiente.

Pausar IA – O´Reilly

Aprende más rápido. Excavar más hondo. Ver más lejos.

La forma más común de ver esta brecha es enmarcarla en torno a la diferencia entre los problemas actuales y los de largo plazo. Eso es ciertamente correcto; la carta de “pausa” proviene del “Instituto Futuro de la Vida”, que está mucho más preocupado por establecer colonias en Marte o convertir el planeta en un montón de sujetapapeles que por marcar en rojo en bienes raíces o establecer fianzas en casos criminales.

Pero hay una forma más importante de ver el problema, y ​​es darse cuenta de que ya sabemos cómo resolver la mayoría de esos problemas a largo plazo. Todas esas soluciones se centran en prestar atención a los problemas a corto plazo de justicia y equidad. Los sistemas de IA que están diseñados para incorporar valores humanos no van a condenar a los humanos a vidas insatisfactorias a favor de una máquina. No van a marginar el pensamiento o la iniciativa humana. Los sistemas de IA que incorporan valores humanos no van a decidir convertir el mundo en sujetapapeles; francamente, no puedo imaginar ningún sistema “inteligente” que determine que fue una buena idea. Podrían negarse a diseñar armas para la guerra biológica. Y, si alguna vez pudiéramos llevar humanos a Marte, nos ayudarían a construir colonias justas y justas, no colonias dominadas por una rica cleptocracia, como las que se describen en tantas de las novelas de Ursula Leguin.

Otra parte de la solución es tomar en serio la rendición de cuentas y la reparación. Cuando un modelo comete un error, tiene que haber algún tipo de responsabilidad humana. cuando alguien es encarcelado por reconocimiento facial incorrecto, debe haber un proceso rápido para detectar el error, liberar a la víctima, corregir sus antecedentes penales y aplicar las sanciones correspondientes a los responsables del modelo. Estas multas deben ser lo suficientemente grandes como para que no puedan cancelarse como el costo de hacer negocios. ¿En qué se diferencia eso de un humano que hace una identificación incorrecta? Una empresa con fines de lucro no vende a un ser humano a un departamento de policía. “La computadora lo dijo” no es una respuesta adecuada, y si reconocer que eso significa que no es económico desarrollar algunos tipos de aplicaciones no se pueden desarrollar, entonces tal vez esas aplicaciones no deberían desarrollarse. Me horrorizan los artículos que informan que la policía usa sistemas de detección de rostros con tasas de falsos positivos superiores al 90%; y aunque esos informes tienen cinco años, no me consuela la posibilidad de que el estado del arte haya mejorado. Me consuela aún menos la propensión de los humanos responsables de estos sistemas a defender su uso, incluso frente a asombrosas tasas de error.

Evitar la parcialidad, los prejuicios y el discurso de odio es otro objetivo fundamental que se puede abordar ahora. Pero este objetivo no se logrará eliminando de algún modo los datos de entrenamiento de sesgos; el resultado serían sistemas que toman decisiones sobre datos que no reflejan ninguna realidad. Necesitamos reconocer que tanto nuestra realidad como nuestra historia son defectuosas y sesgadas. Será mucho más valioso usar IA para detectar y corregir sesgos, entrenarla para tomar decisiones justas frente a datos sesgados y auditar sus resultados. Tal sistema necesitaría ser transparente, para que los humanos puedan auditar y evaluar sus resultados. Sus datos de entrenamiento y su diseño deben estar bien documentados y disponibles para el público. Hojas de datos para conjuntos de datos y Tarjetas modelo para informes modelo, de Timnit Gebru, Margaret Mitchell y otros, son un punto de partida, pero solo un punto de partida. Tendremos que ir mucho más allá para documentar con precisión el comportamiento de un modelo.

La construcción de sistemas imparciales frente a datos prejuiciosos y sesgados solo será posible si participan mujeres y minorías de muchos tipos, que con tanta frecuencia están excluidas de los proyectos de desarrollo de software. Pero construir sistemas imparciales es solo un comienzo. Las personas también deben trabajar en contramedidas contra los sistemas de IA que están diseñados para atacar los derechos humanos y en imaginar nuevos tipos de tecnología e infraestructura para apoyar el bienestar humano. Ambos proyectos, contramedidas y nuevas infraestructuras, seguramente implicarán el diseño y la construcción de nuevos tipos de sistemas de IA.

Sospecho de una prisa por la regulación, independientemente de qué lado lo abogue. No me opongo a la regulación en principio. Pero hay que tener mucho cuidado con lo que se desea. Mirando los cuerpos legislativos en los EE. UU., veo muy pocas posibilidades de que la regulación resulte en algo positivo. En el mejor de los casos, obtendríamos grandilocuencia sin sentido. Lo peor es muy probable: obtendremos leyes y reglamentos que instituyan la crueldad performativa contra las mujeres, las minorías raciales y étnicas y las personas LBGTQ. ¿Queremos ver sistemas de inteligencia artificial a los que no se les permita hablar sobre la esclavitud porque ofende a los blancos? Ese tipo de regulación ya está afectando a muchos distritos escolares, y es ingenuo pensar que no afectará a la IA.

También sospecho de los motivos detrás de la carta de “Pausa”. ¿Es para dar tiempo a ciertos malos actores para construir una IA “anti-despertar” que es un campo de juego para la misoginia y otras formas de odio? ¿Es un intento de avivar la histeria que desvía la atención de las cuestiones básicas de justicia y equidad? ¿Es, como danah boyd argumentaque los líderes tecnológicos tienen miedo de convertirse en la nueva subclase, sujetos a los señores supremos de la IA que crearon?

No puedo responder a esas preguntas, aunque me temo que las consecuencias de una “pausa de IA” serían peores que la posibilidad de una enfermedad. Como escribe danah, “obsesionarse con la IA es una distracción estratégica más que una forma efectiva de lidiar con nuestra realidad sociotécnica”. O, como escribe Brian Behlendorf sobre los líderes de IA que nos advierten que temamos a la IA1:

Ser Cassandra es divertido y puede generar clics… ¿Pero si realmente se arrepienten? Entre otras cosas que pueden hacer, pueden hacer una donación, ayudar a promover, ofrecerse como voluntarios o escribir código para:

Una “Pausa” no hará nada excepto ayudar a los malos actores a ponerse al día o adelantarse. Solo hay una forma de construir una IA con la que podamos vivir en un futuro a largo plazo no especificado, y es construir una IA que sea justa y justa hoy: una IA que se ocupe de problemas reales y daños en los que incurren personas reales. personas, no imaginadas.


notas al pie

  1. Correo electronico privado



Fuente del artículo

Deja un comentario