La inteligencia artificial (IA) se está desarrollando rápidamente como una innovación increíblemente sorprendente con una aplicación aparentemente ilimitada. Ha demostrado su capacidad para automatizar tareas rutinarias, por ejemplo, nuestro manejo diario, al mismo tiempo que aumenta la capacidad humana con nuevos conocimientos. La consolidación de la imaginación y la creatividad humanas con la adaptabilidad del aprendizaje automático está impulsando nuestra base de conocimiento y comprensión a un ritmo notable.
Sin embargo, un poder extraordinario conlleva una gran responsabilidad. En particular, la IA genera preocupaciones en numerosos frentes debido a su posible efecto disruptivo. Estos temores incorporan el desarraigo de la fuerza laboral, la pérdida de protección, los posibles sesgos en la toma de decisiones y la falta de control sobre los sistemas automatizados y los robots. Si bien estos problemas son dignos de mención, también se pueden abordar con la planificación, la supervisión y la gobernanza correctas.
Numeroso sistemas de inteligencia artificial que va a entrar en contacto con la gente debe ver cómo se comportan las personas y lo que necesitan. Esto los hará más valiosos y, además, más seguros de utilizar. Hay al menos dos formas en las que la comprensión de las personas puede beneficiar a los sistemas inteligentes. Para empezar, el sistema inteligente debe reunir lo que necesita un individuo. Durante mucho tiempo, diseñaremos marcos de IA que obtengan sus instrucciones y objetivos de las personas. Sin embargo, las personas no siempre expresan con precisión lo que quieren decir. Entender mal la intención de una persona puede resultar en un fracaso percibido. En segundo lugar, más allá de la incapacidad de comprender el habla humana o el lenguaje escrito, considere el hecho de que las instrucciones totalmente percibidas pueden resultar en decepción si parte de las pautas u objetivos están implícitos o se entienden.
La IA centrada en el ser humano también reconoce el hecho de que las personas pueden ser igualmente inescrutables para los sistemas inteligentes. Cuando consideramos marcos inteligentes que entienden a las personas, generalmente consideramos el lenguaje normal y el procesamiento del habla si un sistema inteligente puede reaccionar adecuadamente a las expresiones. El procesamiento del lenguaje natural, el procesamiento del habla y el reconocimiento de actividades son desafíos importantes en la construcción de sistemas útiles e inteligentes. Para ser realmente efectivos, los sistemas de IA y ML necesitan una teoría de la mente sobre los humanos.
La investigación de IA responsable es un campo en auge que aboga por mejores prácticas y técnicas en la implementación de modelos de aprendizaje automático. El objetivo es generar confianza y, al mismo tiempo, limitar los riesgos potenciales no solo a las organizaciones que implementan estos modelos, sino también a los usuarios a los que sirven.
La IA responsable es una estructura para reunir un gran número de estas prácticas básicas. Se centra en garantizar el uso ético, transparente y responsable de las tecnologías de IA de manera predecible con las expectativas del usuario, las cualidades autorizadas y las leyes y normas culturales. La IA responsable puede protegerse contra la utilización de información o algoritmos unilaterales, garantizar que las decisiones automatizadas sean defendidas y razonables, y ayudar a mantener la confianza del usuario y la privacidad individual. Al brindar reglas de participación claras, la IA responsable permite a las empresas bajo el escrutinio público y del Congreso mejorar y comprender la capacidad innovadora de la IA que es a la vez convincente y responsable.
centrado en el ser humano aprendizaje automático es uno de los conceptos más significativos en el negocio hasta la fecha. Las organizaciones líderes, por ejemplo, Stanford y el MIT, están estableciendo laboratorios explícitamente para fomentar esta ciencia. El MIT define este concepto como “el diseño, desarrollo e implementación de sistemas de información que aprenden de los humanos y colaboran con ellos de manera profunda y significativa”.
El futuro del trabajo se representa con frecuencia como dominado por un aparato robótico y una gran cantidad de algoritmos que afirman ser personas. Sin embargo, en realidad, la adopción de IA se ha planificado en gran medida para hacer que los procesos sean más efectivos, actualizar productos y servicios y crear nuevos productos y servicios según reciente estudio de Deloitte de los ejecutivos corporativos, quienes evaluaron la disminución de la plantilla como su objetivo menos significativo.
Es intrascendente establecer fallas de sentido común en robótica y operadores autónomos. Por ejemplo, un robot va a una farmacia y obtiene un medicamento recetado por un profesional. Dado que el ser humano está enfermo, es posible que desee que el robot regrese lo más rápido posible. Si el robot va directamente a la farmacia, va detrás del mostrador, obtiene el medicamento y regresa, habrá tenido éxito y habrá minimizado el tiempo de ejecución y el dinero. También diríamos que saqueó la droguería ya que no se interesó por la construcción social de cambiar dinero por el producto.
El conocimiento del sentido común, cuya forma procedimental puede funcionar como una razón para la teoría de la mente al interactuar con los humanos, puede hacer que la colaboración humana sea más natural. A pesar del hecho de que los algoritmos de toma de decisiones de ML e IA funcionan únicamente a partir de la toma de decisiones humana, el comportamiento del marco es posteriormente más evidente para las personas. También hace que la interacción con las personas sea más segura: puede reducir las fallas en los objetivos de sentido común porque el operador completa un objetivo indeterminado con detalles de procedimiento de sentido común; y un especialista que las demostraciones según las expectativas de una persona evitarán inherentemente el conflicto con un individuo que está aplicando su teoría de la mente del comportamiento humano a agentes inteligentes.
La inteligencia artificial en radiología, por ejemplo, puede llamar rápidamente la atención sobre los descubrimientos y resaltar las áreas significativamente menos pretenciosas que probablemente no serán captadas fácilmente por el ojo humano. El ser humano centrado en la IA responsable se convierte en un factor integral cuando los médicos y los pacientes, no las máquinas, toman una decisión final sobre el tratamiento. A fin de cuentas, aumentar a los profesionales médicos con una visión cuantitativa profunda les proporciona datos invaluables para tener en cuenta en la decisión.
Al mantener a los humanos en sintonía, es más probable que las organizaciones decidan el grado de automatización y aumento que necesitan y controlen el impacto definitivo de la IA en su fuerza laboral. Por lo tanto, las empresas pueden mitigar enormemente su riesgo y desarrollar una comprensión más profunda de qué tipo de circunstancias podrían ser las más desafiantes para sus implementaciones de IA y aplicaciones de aprendizaje automático.