Entendamos el panorama de la Inteligencia Artificial - Sigma Móvil
skip to Main Content

A medida que la Inteligencia Artificial (IA) se vuelve cada vez más una expresión de comedor, muchas empresas se ven forzadas a intentar entender el concepto e implementarlo como parte de su infraestructura actual. El problema radica en que esas herramientas son inmensamente variadas, son pobremente entendidas (usualmente), y están en constante evolución. Para empezar a digerir el panorama de la IA y definir la manera en que tu negocio debe adaptarse a ella, lo primero que debemos hacer es aterrizar el concepto de “IA” y aceptar que cubre un ENORME espectro de cosas.

 

Para eso, estuve leyendo un estudio que será publicado próximamente en el libro Artificial Intelligence for Sustainable Value Creation, donde los autores, luego de analizar más de 800 sistemas de IA en 14 industrias, concluyen que pueden ser agrupados en cuatro categorías: 1. Sistemas que desarrollan tareas rutinarias con pocas o ninguna implicación ética; 2. Sistemas que desarrollan tareas rutinarias que sí tienen un componente ético; 3. Sistemas que completan tareas creativas con implicaciones éticas limitadas; y 4. Sistemas que requiere toma de decisiones tanto éticas como creativas.

 

El entender las implicaciones de estas cuatro categorías de IA te ayudará a definir cuáles tareas o actividades se ajustan mejor a cada tipo de sistema, cómo implementar la supervisión humana a estos sistemas, y, en últimas, cómo optimizar la colaboración entre humano y máquina.

 

Los 4 tipos de tareas cimentadas en IA

 

Tareas rutinarias

 

Tareas creativas
Implicaciones éticas limitadas Tareas rutinarias con implicaciones éticas limitadas. Ej. Un brazo robótico, AGVs, montacargas autónomos.

 

Tareas creativas con implicaciones éticas limitadas. Ej. Herramientas de inversión, robots quirúrgicos.
Implicaciones éticas importantes Tareas que son relativamente sencillas, pero requieren toma de decisiones éticas. Ej. Robots que ayudan a personas con discapacidades o adultos mayores.

 

Tareas que requieren tanto creatividad como toma de decisiones éticas. Ej. Vehículos autónomos, robots de búsqueda y rescate.

Fuente: Margherita Pagani y Renaud Champion.

 

  1. Tareas rutinarias

 

Esta primera categoría incluye sistemas de IA que ejecutan tareas repetitivas y rutinarias. Para estos casos, el rol del humano se limita a supervisar el funcionamiento de la herramienta de IA.

 

Si bien estos sistemas harán obsoletos los trabajos de cadena de ensamblaje, requerirán de supervisión humana en roles nuevos, de corte más gerencial-administrativo. A fin de prepararse para esta transición, las empresas deben empezar a evaluar maneras de reentrenar a sus empleados, mantenerlos comprometidos y motivados ante la amenaza percibida por la IA. Aquí la clave es comunicar que la IA es un sistema eficiente de apoyo a la gestión, que permitirá a los empleados asumir nuevos roles de tendencia creativa.

 

  1. Tareas sencillas que requieren toma de decisiones éticas

 

Algunas tareas que son altamente repetitivas igual requieren de un gran nivel de conciencia ética, haciendo particularmente importante el rol de la supervisión humana para este tipo de sistemas de IA. Por ejemplo, al usar robots que ayudan a personas con discapacidades con la mecánica de comer (como el brazo robótico de Kinova), que apoyan a personas mayores a pararse o caminar (ej. los exoesqueletos de Ekso Bionics o ReWalk), o que administran medicamentos y dan estímulo cognitivo (como Nao para autismo o Paro para Alzheimer), es vital que los humanos suplan los componentes éticos y de empatía que un robot no puede.

 

Cuando una empresa vaya a implementar este tipo de sistemas de IA, deberán sopesar las implicaciones éticas de toda tarea que se automatiza, y velar porque estas herramientas estén acompañadas de empleados humanos equipados para tomar decisiones éticas en caso de requerirse. Por ejemplo, si un robot está distribuyendo medicamentos, es importante pensar en la mejor manera de informar a los pacientes y recibir su consentimiento expreso, y por qué no, incluir fail-safes humanos para complementar y eventualmente corregir la comunicación automatizada.

 

También, este tipo de tareas frecuentemente se benefician del toque humano, incluso cuando esas personas no están haciendo algo diferente a lo que haría la misma máquina. Si tienes un robot desarrollando actividades de ayuda a poblaciones mayores, probablemente valga la pena que un humano lo acompañe en sus rondas, para nada más que mejorar la experiencia de las personas que está ayudando.

 

  1. Tareas creativas con componentes éticos limitados

 

Esta categoría de IA se refiere a sistemas donde la IA es aprovechada para tareas que requieren un alto nivel de creatividad y complejidad, pero no necesitan de mayor conciencia ética. Por ejemplo, las herramientas de IA financiera que predicen cambios en el mercado deben llevar a cabo cálculos complejísimos para entregar resultados accionables, pero generalmente no tienen un bemol ético.

 

Para empresas que estén considerando incluir este tipo de sistemas dentro de su operación, es importante que evalúen las limitaciones intrínsecas que tienen estas herramientas de IA en cuanto al alcance de su creatividad y capacidad de innovación. En el estado actual de la IA, parece indicado que las empresas creen mecanismos de supervisión humana y espacios de redireccionamiento creativo, cuando el humano encuentre soluciones más efectivas o innovadoras (consideren el papel que juega la heurística en la toma de decisiones).

 

  1. Tareas con componentes tanto creativos como éticos

 

La última categoría de sistemas de IA abarca tareas que requieren un alto grado de creatividad y de toma de decisiones éticas. En estos casos, le estamos pidiendo a una máquina que interactúe con su entorno y logre completar una actividad compleja, éticamente cargada, con intervención mínima (o ninguna intervención) humana. Los proyectos de automóviles completamente autónomos de Tesla y Google necesitan ejecutar tareas complejas e intensamente creativas, mientras balancean decisiones éticas de altísimo impacto, tales como ponderar – en tiempo real – el impacto de una decisión en la vida de diferentes personas (pasajeros v. transeúntes).

 

Si bien se han hechos grandes avances en entender el proceso de toma de decisiones éticas aplicadas a IA (revisen el concepto de Hive Intelligence), todavía sigue siendo necesario que exista un monitorea y eventual intervención humana, cuando la herramienta de IA tome una decisión diferente a la que tu tomarías.

A medida que la Inteligencia Artificial (IA) se vuelve cada vez más una expresión de comedor, muchas empresas se ven forzadas a intentar entender el concepto e implementarlo como parte de su infraestructura actual. El problema radica en que esas herramientas son inmensamente variadas, son pobremente entendidas (usualmente), y están en constante evolución. Para empezar a digerir el panorama de la IA y definir la manera en que tu negocio debe adaptarse a ella, lo primero que debemos hacer es aterrizar el concepto de “IA” y aceptar que cubre un ENORME espectro de cosas.

 

Para eso, estuve leyendo un estudio que será publicado próximamente en el libro Artificial Intelligence for Sustainable Value Creation, donde los autores, luego de analizar más de 800 sistemas de IA en 14 industrias, concluyen que pueden ser agrupados en cuatro categorías: 1. Sistemas que desarrollan tareas rutinarias con pocas o ninguna implicación ética; 2. Sistemas que desarrollan tareas rutinarias que sí tienen un componente ético; 3. Sistemas que completan tareas creativas con implicaciones éticas limitadas; y 4. Sistemas que requiere toma de decisiones tanto éticas como creativas.

 

El entender las implicaciones de estas cuatro categorías de IA te ayudará a definir cuáles tareas o actividades se ajustan mejor a cada tipo de sistema, cómo implementar la supervisión humana a estos sistemas, y, en últimas, cómo optimizar la colaboración entre humano y máquina.

 

Los 4 tipos de tareas cimentadas en IA

 

Tareas rutinarias

 

Tareas creativas
Implicaciones éticas limitadas Tareas rutinarias con implicaciones éticas limitadas. Ej. Un brazo robótico, AGVs, montacargas autónomos.

 

Tareas creativas con implicaciones éticas limitadas. Ej. Herramientas de inversión, robots quirúrgicos.
Implicaciones éticas importantes Tareas que son relativamente sencillas, pero requieren toma de decisiones éticas. Ej. Robots que ayudan a personas con discapacidades o adultos mayores.

 

Tareas que requieren tanto creatividad como toma de decisiones éticas. Ej. Vehículos autónomos, robots de búsqueda y rescate.

Fuente: Margherita Pagani y Renaud Champion.

 

  1. Tareas rutinarias

 

Esta primera categoría incluye sistemas de IA que ejecutan tareas repetitivas y rutinarias. Para estos casos, el rol del humano se limita a supervisar el funcionamiento de la herramienta de IA.

 

Si bien estos sistemas harán obsoletos los trabajos de cadena de ensamblaje, requerirán de supervisión humana en roles nuevos, de corte más gerencial-administrativo. A fin de prepararse para esta transición, las empresas deben empezar a evaluar maneras de reentrenar a sus empleados, mantenerlos comprometidos y motivados ante la amenaza percibida por la IA. Aquí la clave es comunicar que la IA es un sistema eficiente de apoyo a la gestión, que permitirá a los empleados asumir nuevos roles de tendencia creativa.

 

  1. Tareas sencillas que requieren toma de decisiones éticas

 

Algunas tareas que son altamente repetitivas igual requieren de un gran nivel de conciencia ética, haciendo particularmente importante el rol de la supervisión humana para este tipo de sistemas de IA. Por ejemplo, al usar robots que ayudan a personas con discapacidades con la mecánica de comer (como el brazo robótico de Kinova), que apoyan a personas mayores a pararse o caminar (ej. los exoesqueletos de Ekso Bionics o ReWalk), o que administran medicamentos y dan estímulo cognitivo (como Nao para autismo o Paro para Alzheimer), es vital que los humanos suplan los componentes éticos y de empatía que un robot no puede.

 

Cuando una empresa vaya a implementar este tipo de sistemas de IA, deberán sopesar las implicaciones éticas de toda tarea que se automatiza, y velar porque estas herramientas estén acompañadas de empleados humanos equipados para tomar decisiones éticas en caso de requerirse. Por ejemplo, si un robot está distribuyendo medicamentos, es importante pensar en la mejor manera de informar a los pacientes y recibir su consentimiento expreso, y por qué no, incluir fail-safes humanos para complementar y eventualmente corregir la comunicación automatizada.

 

También, este tipo de tareas frecuentemente se benefician del toque humano, incluso cuando esas personas no están haciendo algo diferente a lo que haría la misma máquina. Si tienes un robot desarrollando actividades de ayuda a poblaciones mayores, probablemente valga la pena que un humano lo acompañe en sus rondas, para nada más que mejorar la experiencia de las personas que está ayudando.

 

  1. Tareas creativas con componentes éticos limitados

 

Esta categoría de IA se refiere a sistemas donde la IA es aprovechada para tareas que requieren un alto nivel de creatividad y complejidad, pero no necesitan de mayor conciencia ética. Por ejemplo, las herramientas de IA financiera que predicen cambios en el mercado deben llevar a cabo cálculos complejísimos para entregar resultados accionables, pero generalmente no tienen un bemol ético.

 

Para empresas que estén considerando incluir este tipo de sistemas dentro de su operación, es importante que evalúen las limitaciones intrínsecas que tienen estas herramientas de IA en cuanto al alcance de su creatividad y capacidad de innovación. En el estado actual de la IA, parece indicado que las empresas creen mecanismos de supervisión humana y espacios de redireccionamiento creativo, cuando el humano encuentre soluciones más efectivas o innovadoras (consideren el papel que juega la heurística en la toma de decisiones).

 

  1. Tareas con componentes tanto creativos como éticos

 

La última categoría de sistemas de IA abarca tareas que requieren un alto grado de creatividad y de toma de decisiones éticas. En estos casos, le estamos pidiendo a una máquina que interactúe con su entorno y logre completar una actividad compleja, éticamente cargada, con intervención mínima (o ninguna intervención) humana. Los proyectos de automóviles completamente autónomos de Tesla y Google necesitan ejecutar tareas complejas e intensamente creativas, mientras balancean decisiones éticas de altísimo impacto, tales como ponderar – en tiempo real – el impacto de una decisión en la vida de diferentes personas (pasajeros v. transeúntes).

 

Si bien se han hechos grandes avances en entender el proceso de toma de decisiones éticas aplicadas a IA (revisen el concepto de Hive Intelligence), todavía sigue siendo necesario que exista un monitorea y eventual intervención humana, cuando la herramienta de IA tome una decisión diferente a la que tu tomarías.

This Post Has 0 Comments

Deja un comentario

Tu dirección de correo electrónico no será publicada.

Gracias por registrarte

Serás el primero en ingresar a nuestra tienda cuando esté activa.