Lograr que los ingenieros de inteligencia artificial del gobierno se sintonicen con la ética de la inteligencia artificial es visto como un desafío

Lograr que los ingenieros de inteligencia artificial del gobierno se

Por John P. Desmond, editor de tendencias de IA

Los ingenieros tienden a ver las cosas en términos inequívocos, que algunos pueden llamar términos en blanco y negro, como una elección entre correcto o incorrecto, bueno o malo. La consideración de la ética en la IA está muy matizada, con amplias áreas grises, lo que dificulta que los ingenieros de software de IA la apliquen en su trabajo.

Esa fue una conclusión de una sesión sobre el futuro de los estándares y la IA ética en el Gobierno mundial de IA conferencia celebrada en persona y virtualmente en Alexandria, Virginia esta semana.

Una impresión general de la conferencia es que la discusión sobre la IA y la ética está ocurriendo en prácticamente todos los trimestres de la IA en la vasta empresa del gobierno federal, y se destacó la consistencia de los puntos que se hicieron en todos estos esfuerzos diferentes e independientes.

1679757257 88 Lograr que los ingenieros de inteligencia artificial del gobierno se
Beth-Ann Schuelke-Leech, profesora asociada, administración de ingeniería, Universidad de Windsor

“Nosotros, los ingenieros, a menudo pensamos en la ética como algo confuso que nadie realmente ha explicado”, afirmó Beth-Anne Schuelke-Leech, profesora asociada de Gestión de Ingeniería y Emprendimiento en la Universidad de Windsor, Ontario, Canadá, hablando en Future of Sesión de IA ética. “Puede ser difícil para los ingenieros que buscan restricciones sólidas que se les diga que sean éticos. Eso se vuelve realmente complicado porque no sabemos lo que realmente significa”.

Schuelke-Leech comenzó su carrera como ingeniera, luego decidió obtener un doctorado en políticas públicas, una formación que le permite ver las cosas como ingeniera y como científica social. “Obtuve un doctorado en ciencias sociales y volví al mundo de la ingeniería donde participo en proyectos de inteligencia artificial, pero con base en una facultad de ingeniería mecánica”, dijo.

Un proyecto de ingeniería tiene un objetivo, que describe el propósito, un conjunto de características y funciones necesarias y un conjunto de restricciones, como el presupuesto y el cronograma. “Las normas y reglamentos se vuelven parte de las restricciones”, dijo. “Si sé que tengo que cumplirlo, lo haré. Pero si me dices que es bueno hacerlo, puedo adoptarlo o no”.

Schuelke-Leech también se desempeña como presidente del Comité sobre las Implicaciones Sociales de los Estándares Tecnológicos de la Sociedad IEEE. Comentó: “Los estándares de cumplimiento voluntario, como los del IEEE, son esenciales para que las personas de la industria se reúnan para decir que esto es lo que creemos que debemos hacer como industria”.

Algunos estándares, como los relacionados con la interoperabilidad, no tienen fuerza de ley, pero los ingenieros los cumplen para que sus sistemas funcionen. Otros estándares se describen como buenas prácticas, pero no es obligatorio seguirlos. “Ya sea que me ayude a lograr mi objetivo o me impida alcanzar el objetivo, es como lo ve el ingeniero”, dijo.

La búsqueda de la ética de la IA descrita como “desordenada y difícil”

1679757257 111 Lograr que los ingenieros de inteligencia artificial del gobierno se
Sara Jordan, asesora principal, Future of Privacy Forum

Sara Jordan, asesora principal del Foro del Futuro de la Privacidad, en la sesión con Schuelke-Leech, trabaja en los desafíos éticos de la IA y el aprendizaje automático y es miembro activo de la Iniciativa Global IEEE sobre Ética y Sistemas Autónomos e Inteligentes. “La ética es complicada y difícil, y está cargada de contexto. Tenemos una proliferación de teorías, marcos y construcciones”, dijo, y agregó: “La práctica de la IA ética requerirá un pensamiento repetible y riguroso en contexto”.

Schuelke-Leech ofreció: “La ética no es un resultado final. Es el proceso que se sigue. Pero también estoy buscando a alguien que me diga qué debo hacer para hacer mi trabajo, que me diga cómo ser ético, qué reglas se supone que debo seguir, que elimine la ambigüedad”.

“Los ingenieros se cierran cuando les dices palabras graciosas que no entienden, como ‘ontológico’. Han estado estudiando matemáticas y ciencias desde que tenían 13 años”, dijo.

Le ha resultado difícil involucrar a los ingenieros en los intentos de redactar estándares para la IA ética. “Faltan ingenieros en la mesa”, dijo. “Los debates sobre si podemos llegar a ser 100 % éticos son conversaciones que los ingenieros no tienen”.

Ella concluyó: “Si sus gerentes les dicen que lo averigüen, lo harán. Tenemos que ayudar a los ingenieros a cruzar el puente a mitad de camino. Es fundamental que los científicos sociales y los ingenieros no se den por vencidos en esto”.

El panel de líderes describió la integración de la ética en las prácticas de desarrollo de IA

El tema de la ética en la IA está surgiendo cada vez más en el plan de estudios de la Escuela de Guerra Naval de los EE. UU. de Newport, RI, que se estableció para brindar estudios avanzados a los oficiales de la Marina de los EE. UU. y ahora educa a los líderes de todos los servicios. Ross Coffey, profesor militar de Asuntos de Seguridad Nacional en la institución, participó en un Panel de Líderes sobre IA, Ética y Política Inteligente en AI World Government.

“La alfabetización ética de los estudiantes aumenta con el tiempo a medida que trabajan con estos problemas éticos, por lo que es un asunto urgente porque llevará mucho tiempo”, dijo Coffey.

Carole Smith, miembro del panel, científica investigadora principal de la Universidad Carnegie Mellon que estudia la interacción hombre-máquina, ha estado involucrada en la integración de la ética en el desarrollo de sistemas de IA desde 2015. Citó la importancia de “desmitificar” la IA.

“Mi interés es comprender qué tipo de interacciones podemos crear en las que el ser humano confíe adecuadamente en el sistema con el que está trabajando, sin confiar demasiado o poco en él”, dijo, y agregó: “En general, las personas tienen expectativas más altas que deberían para los sistemas”.

Como ejemplo, citó las características del piloto automático de Tesla, que implementan la capacidad del automóvil autónomo hasta cierto punto, pero no completamente. “La gente asume que el sistema puede realizar un conjunto de actividades mucho más amplio de lo que fue diseñado. Es importante ayudar a las personas a comprender las limitaciones de un sistema. Todos deben comprender los resultados esperados de un sistema y cuáles podrían ser algunas de las circunstancias atenuantes”, dijo.

El miembro del panel Taka Ariga, el primer científico de datos jefe designado para la Oficina de Responsabilidad del Gobierno de EE. UU. y director del Laboratorio de Innovación de la GAO, ve una brecha en la alfabetización de IA para la fuerza laboral joven que ingresa al gobierno federal. “La formación de los científicos de datos no siempre incluye la ética. La IA responsable es una construcción loable, pero no estoy seguro de que todos la compren. Necesitamos que su responsabilidad vaya más allá de los aspectos técnicos y rinda cuentas al usuario final al que intentamos servir”, dijo.

La moderadora del panel, Alison Brooks, PhD, vicepresidenta de investigación de Smart Cities and Communities en la firma de investigación de mercado IDC, preguntó si los principios de la IA ética pueden compartirse más allá de las fronteras de las naciones.

“Tendremos una capacidad limitada para que cada nación se alinee exactamente con el mismo enfoque, pero tendremos que alinearnos de alguna manera en lo que no permitiremos que haga la IA, y de lo que la gente también será responsable”, declaró Smith de CMU.

Los panelistas le dieron crédito a la Comisión Europea por estar al frente en estos temas de ética, especialmente en el ámbito de la aplicación.

Ross, de Naval War Colleges, reconoció la importancia de encontrar puntos en común en torno a la ética de la IA. “Desde una perspectiva militar, nuestra interoperabilidad debe llegar a un nivel completamente nuevo. Necesitamos encontrar puntos en común con nuestros socios y nuestros aliados sobre lo que permitiremos que haga la IA y lo que no permitiremos que haga la IA”. Desafortunadamente, “no sé si esa discusión está ocurriendo”, dijo.

La discusión sobre la ética de la IA quizás podría llevarse a cabo como parte de ciertos tratados existentes, sugirió Smith.

Los muchos principios, marcos y hojas de ruta de la ética de la IA que se ofrecen en muchas agencias federales pueden ser difíciles de seguir y ser consistentes. Take dijo: “Tengo la esperanza de que durante el próximo año o dos, veremos una unión”.

Para más información y acceso a las sesiones grabadas, vaya a Gobierno mundial de IA.

Fuente del artículo

Deja un comentario