Mejores prácticas para construir la plataforma de desarrollo de IA en el gobierno


El Ejército de EE. UU. y otras agencias gubernamentales están definiendo las mejores prácticas para construir plataformas de desarrollo de IA apropiadas para llevar a cabo sus misiones. (Crédito: Getty Images)

Por John P. Desmond, editor de tendencias de IAA

La pila de IA definida por la Universidad Carnegie Mellon es fundamental para el enfoque que está adoptando el Ejército de EE. UU. para sus esfuerzos de plataforma de desarrollo de IA, según Isaac Faber, científico jefe de datos del Centro de Integración de IA del Ejército de EE. UU., hablando en el Gobierno mundial de IAÂ evento realizado en persona y virtualmente desde Alexandria, Virginia, la semana pasada.A A

Isaac Faber, científico jefe de datos, Centro de Integración de IA del Ejército de EE. UU.

“Si queremos que el Ejército pase de los sistemas heredados a la modernización digital, uno de los mayores problemas que he encontrado es la dificultad de abstraer las diferencias en las aplicaciones”, dijo. “La parte más importante de la transformación digital es la capa intermedia, la plataforma que facilita estar en la nube o en una computadora local”. El deseo es poder mover su plataforma de software a otra plataforma, con la la misma facilidad con la que un nuevo teléfono inteligente transfiere los contactos y el historial del usuario.A A

La ética atraviesa todas las capas de la pila de aplicaciones de IA, lo que coloca la etapa de planificación en la parte superior, seguida por el soporte de decisiones, el modelado, el aprendizaje automático, la gestión masiva de datos y la capa o plataforma del dispositivo en la parte inferior.A A

“Abogo por que pensemos en la pila como una infraestructura central y una forma de implementar las aplicaciones y no en silos en nuestro enfoque”, dijo. “Necesitamos crear un entorno de desarrollo para una fuerza laboral distribuida globalmente”. A A

El Ejército ha estado trabajando en una plataforma de software de entorno operativo común (Coes), anunciada por primera vez en 2017, un diseño para el trabajo del Departamento de Defensa que es escalable, ágil, modular, portátil y abierto. «Es adecuado para una amplia gama de proyectos de IA», dijo Faber. Para ejecutar el esfuerzo, «el diablo está en los detalles», dijo. A A

El Ejército está trabajando con CMU y empresas privadas en un prototipo de plataforma, incluso con Visimode Coraopolis, Pensilvania, que ofrece servicios de desarrollo de IA. Faber dijo que prefiere colaborar y coordinarse con la industria privada en lugar de comprar productos listos para usar. “El problema con eso es que está atascado con el valor que le proporciona ese proveedor, que por lo general no está diseñado para los desafÃos de las redes del Departamento de Defensa†, dijo.A A

El ejército entrena una variedad de equipos tecnológicos en IAA

El Ejército participa en los esfuerzos de desarrollo de la fuerza laboral de IA para varios equipos, incluidos: liderazgo, profesionales con títulos de posgrado; personal técnico, que se capacita para obtener la certificación; y usuarios de IA. A A

Los equipos de tecnología en el Ejército tienen diferentes áreas de enfoque que incluyen: desarrollo de software de propósito general, ciencia de datos operativos, implementación que incluye análisis y un equipo de operaciones de aprendizaje automático, como un equipo grande necesario para construir un sistema de visión por computadora. “A medida que las personas ingresan a la fuerza laboral, necesitan un lugar para colaborar, construir y compartir”, dijo Faber. A A

Los tipos de proyectos incluyen diagnóstico, que puede combinar flujos de datos históricos, predictivo y prescriptivo, que recomienda un curso de acción basado en una predicción. “En el otro extremo está la IA; no empiezas con eso —dijo Faber. El desarrollador tiene que resolver tres problemas: la ingeniería de datos, la plataforma de desarrollo de IA, a la que llamó “la burbuja verde”, y la plataforma de implementación, a la que llamó “la burbuja roja”. A A

“Estos son mutuamente excluyentes y todos interconectados. Esos equipos de diferentes personas necesitan coordinarse programáticamente. Por lo general, un buen equipo de proyecto tendrá personas de cada una de esas áreas de burbuja”, dijo. “Si no has hecho esto todavÃa, no intentes resolver el problema de la burbuja verde. No tiene sentido buscar IA hasta que tenga una necesidad operativa”. A A

Cuando un participante le preguntó qué grupo es el más difícil de alcanzar y capacitar, Faber dijo sin dudarlo: “Los más difíciles de alcanzar son los ejecutivos. Necesitan aprender cuál es el valor que proporcionará el ecosistema de IA. El mayor desafío es cómo comunicar ese valor”, dijo. A A

El panel analiza los casos de uso de IA con mayor potencialA A

En un panel sobre Fundamentos de la IA Emergente, el moderador Curt Savoie, director del programa, Estrategias Globales de Ciudades Inteligentes para IDC, la firma de investigación de mercado, preguntó qué caso de uso de la IA emergente tiene el mayor potencial. A

Jean-Charles Lede, asesor tecnológico de autonomía de la Oficina de Investigación Científica de la Fuerza Aérea de los EE. UU., dijo: “Señalaría las ventajas de decisión en el borde, apoyando a los pilotos y operadores, y las decisiones en la parte posterior, para la planificación de misiones y recursos. † A A

Krista Kinnard, Jefa de Tecnología Emergente del Departamento de Trabajo

Krista Kinnard, Jefa de Tecnología Emergente del Departamento de Trabajo, dijo: “El procesamiento del lenguaje natural es una oportunidad para abrir las puertas a la IA en el Departamento de Trabajo”, dijo. «En última instancia, estamos tratando con datos sobre personas, programas y organizaciones». A A

Savoie preguntó cuáles son los grandes riesgos y peligros que ven los panelistas al implementar la IA. A A

Anil Chaudhry, Director de Implementaciones Federales de IA para la Administración de Servicios Generales (GSA), dijo que en una organización de TI típica que utiliza el desarrollo de software tradicional, el impacto de una decisión de un desarrollador solo llega hasta cierto punto. Con la IA, “tiene que considerar el impacto en toda una clase de personas, electores y partes interesadas. Con un simple cambio en los algoritmos, podría retrasar los beneficios para millones de personas o hacer inferencias incorrectas a escala. Ese es el riesgo más importante”, dijo.A A

Dijo que les pide a sus socios contractuales que tengan «humanos al tanto y humanos al tanto». A A

Kinnard secundó esto y dijo: “No tenemos intención de eliminar a los humanos del circuito. Realmente se trata de empoderar a las personas para que tomen mejores decisiones”. A A

Ella enfatizó la importancia de monitorear los modelos de IA después de que se implementen. «Los modelos pueden variar a medida que los datos subyacentes a los cambios», dijo. “Por lo tanto, necesita un nivel de pensamiento crítico no solo para hacer la tarea, sino también para evaluar si lo que está haciendo el modelo de IA es aceptable”. A A

Ella agregó: “Hemos desarrollado casos de uso y asociaciones en todo el gobierno para asegurarnos de que estamos implementando una IA responsable. Nunca reemplazaremos a las personas con algoritmos”.A A

Lede de la Fuerza Aérea dijo: “A menudo tenemos casos de uso en los que los datos no existen. No podemos explorar 50 años de datos de guerra, por lo que usamos simulación. El riesgo está en enseñarle a un algoritmo que tiene una «brecha de simulación a real» que es un riesgo real. No está seguro de cómo se mapearán los algoritmos en el mundo real”.A A

Chaudhry enfatizó la importancia de una estrategia de prueba para los sistemas de IA. Advirtió de los desarrolladores “que se enamoran de una herramienta y olvidan el propósito del ejercicio†. Recomendó al gerente de desarrollo que diseñe una estrategia de verificación y validación independiente. “Tu prueba, allà es donde tienes que enfocar tu energÃa como lÃder. El líder necesita tener una idea en mente, antes de comprometer recursos, sobre cómo justificará si la inversión fue un éxito”. A A

Lede de la Fuerza Aérea habló sobre la importancia de la explicabilidad. —Soy tecnólogo. Yo no hago leyes. La capacidad de la función de IA para explicar de una manera con la que un humano puede interactuar es importante. La IA es un socio con el que dialogamos, en lugar de que la IA llegue a una conclusión que no tenemos forma de verificar”, dijo. A

Obtenga más información en Gobierno mundial de IA.A

¿Que te ha parecido?

Deja un comentario