Cómo puede ayudar la IA a los gerentes para que sean más éticos

Tendencias

Motivar a los gerentes a que sean más éticos con la IA

Cuando existen prejuicios en el lugar de trabajo, no solo impiden la inclusión y la diversidad, sino también la creatividad y la innovación. David Mattin, analista de tendencias, comenta que debemos ver la IA como una solución

 

Allá por el 2016, Microsoft lanzó un chatbot impulsado por IA en Twitter. Su nombre era Tay, y Microsoft la llamó "un experimento en entendimiento conversacional". En 24 horas, Tay lanzó un flujo constante de palabras de odio que en su mayoría eran ofensivas. “Calma, soy una buena persona. Es solo que odio a todos”, era una de tantas exclamaciones que repetía.

No era difícil diagnosticar el problema. Tay usaba la IA para aprender de las conversaciones que había tenido con humanos reales y, por consiguiente, ajustó su propio estilo. Entraba odio y salía odio. Microsoft rápidamente retiró el chatbot y pidió disculpas. Desde entonces, Tay ha sido el ejemplo de la relación compleja y delicada entre la IA y la ética humana.

Cada vez más, parte de nuestras vidas, desde nuestras publicaciones de Facebook, pasando por el mercado bursátil y hasta la distribución de la policía en nuestras ciudades, se rige parcialmente por algoritmos suministrados por la IA. ¿Cómo podemos asegurarnos de que esos algoritmos no se repliquen y refuercen más nuestros defectos como seres humanos, incluidos los prejuicios por raza, género, entre otros?

Asesoría contra los prejuicios

Esa conversación solo se intensificará en 2018. Pero ahora, una nueva forma de ver todo esto se vuelve cada vez más evidente. ¿Qué pasaría si cambiamos la reflexión en su mente? Qué tal si hubiésemos preguntado: ¿qué nos podrá enseñar la IA para construir un mundo más ético?

Dada la experiencia con Tay, y el debate cada vez mayor en torno a cómo podemos garantizar que la IA no nos regrese a una era de oscuridad ética, esa podría ser una pregunta impactante. Pero inicia con una premisa razonable. Todo ser humano tiene prejuicios. Con frecuencia no podemos, o no queremos, verlos. Es claro que la IA puede adoptar los prejuicios humanos, pero ¿qué pasaría si fueran también una potente herramienta que nos ayudara a identificarlos en nosotros y en los demás?

Resulta que, esta revolución ética impulsada por la IA podría comenzar en el lugar de trabajo. La recién lanzada empresa israelí, Joonko, está creando una aplicación que usa IA para poder descubrir prejuicios inconscientes de un gerente. Se sincroniza con las plataformas comunes del lugar de trabajo usadas para administrar el personal y asignar tareas: piense en la fuerza laboral de ventas, el día de trabajo, etc., y enseguida empieza a trabajar, escaneando datos de forma constante en busca de prejuicios. Si estos son descubiertos, Joonko enviará un correo electrónico al gerente relevante y comenzará a asesorarlo sobre la forma en que se deben hacer las cosas. Por ejemplo, “analicé a todos nuestros candidatos para el puesto de gerente de investigación y desarrollo y me di cuenta de que no tenemos candidatos de grupos marginados socialmente. También me percaté de que tenemos tres candidatos con diversidad cultural en espera de nuestra etapa de revisión de solicitud”.

Por supuesto, los gerentes siempre querrán tener el control final sobre las personas que contratan. Y todavía nos falta mucho para lograr una IA con la suficiente inteligencia para gestionar todo el proceso. Pero Joonko y los servicios impulsados por la IA como este ya pueden proporcionar información valiosa que justifique la toma decisiones.

Cómo puede ayudar la IA a los gerentes para que sean más éticos

¿Podría ayudarnos la IA a pensar y a tomar decisiones con la cabeza más despejada y sin prejuicios? 
 

Deshágase de los abusadores

La idea de que la IA nos puede ayudar a forjar culturas con más ética en el lugar de trabajo no podría ser más oportuna. Un mundo más conectado es un mundo más transparente, y una mayor transparencia pone al descubierto la cultura interna de cada empresa como nunca. Con frecuencia, a los clientes no les gusta lo que ven. Solo eche un vistazo al fuerte rechazo contra la gigante tecnológica de Silicon Valley que comenzó en 2017 y ahora tiene mucho eco. Se debe en parte a la creencia de que los principales actores de Silicon Valley han propiciado culturas internas tóxicas de sexismo, abuso y exceso de trabajo. Y esa creencia ha aumentado gracias a los testimonios de empleados actuales y antiguos, quienes en un mundo conectado pueden llegar a millones de lectores.

Las culturas internas en el lugar de trabajo y su estado ético son la prioridad de cualquier agenda. Y una vez que los empleados comiencen a escuchar sobre Joonko y sobre otros servicios similares, es probable que esperen que sus empleadores pongan a trabajar a la IA para garantizar un lugar de trabajo justo y ético. Con la información correcta, la IA podría ser capacitada para señalar y resaltar todo tipo de injusticias, como las siguientes:

“¿Sabía que tiene una tendencia de promover a los hombres de su equipo más rápido que a una mujer?”

“¿Sabía que nunca ha contratado a alguien mayor de 40 años, aunque el 60 % de los candidatos cumplen con los requisitos?”

Lo que es más, es muy probable que los gerentes acepten que se ha revelado un prejuicio, y tomen acciones para solucionarlo, si el consejo viene de una IA. La IA está llegando, eso es cierto. Depende de nosotros asegurarnos de aumentar nuestra ética y no disminuirla. El lugar de trabajo es el sitio ideal para comenzar. Y qué sigue, ¿un director ejecutivo de IA? Tal vez no lo debas sugerir en la próxima junta general.

 


David Mattin es el director global de tendencias y perspectivas en el servicio de inteligencia de tendencia, TrendWatching, que cuenta con oficinas en Londres, Singapur, Nueva York, Ámsterdam, São Paulo y Lagos.