LOS SISTEMAS NO TIENEN SESGOS, HASTA QUE SE LOS DAMOS

En la era del Big Data, vivimos consumiendo y aportando datos. El dato es la unidad de medida más valiosa en la actualidad, como lo fue la sal cuando los Romanos la obtenían como parte de pago por su trabajo y de allí nació el “salario”. Con ellos, las empresas nos recomiendan series, productos, viajes, etc. Hacemos que funcionen mejor, cosas que antes no nos imaginábamos. ¿Cómo que ahora un microondas o un lavarropas recibe datos y no solo una computadora? Si, eso es el Internet de las Cosas (IOT) y también funciona con la misma lógica. Con el auge de la inteligencia artificial, la analítica de negocio y los sistemas de aprendizaje automático, la curva de aprendizaje sobre esta unidad de medida tan valiosa, está aumentando mucho más rápido de lo pensado.

Pero, los riesgos asociados también están aumentando rápidamente. Y uno de ellos son los sesgos de los sistemas: ¿Cómo trabaja el sistema a partir de los datos que le aportamos? ¿Deja a alguien de lado? ¿Hace conclusiones erróneas? ¿Aprende adecuadamente? ¿Se desvía del objetivo por el cual lo intenté configurar? Son solo algunas de las preguntas que nos podemos hacer…

Esto ya ocurre. Problemas de discriminación a la hora de catalogar culpables en la justicia, algoritmos sexistas que amplifican la brecha entre hombre y mujer a la hora de obtener un empleo (Amazon tuvo que desistir de usar su sistema por no encontrarle solución), disparidades raciales, entre otros.

Por eso, ahora nace la nueva corriente anti-sistemas. Como no podemos censurar la información que está por todas partes, dejemos de utilizar los sistemas que los utilizan.

¿Y si es la mirada equivocada? ¿Quién crea esos datos? ¿El huevo o la gallina? Aún los sistemas no nos reemplazan, simplemente nos amplifican la posibilidad de acción como herramientas adicionales.

Quizás la sociedad está aterrada por ver como los sistemas amplifican sus propios sesgos. Como profesionales, debemos empezar a preguntarnos si es más útil derivarle la responsabilidad al objeto intangible o empezar por lo que podemos controlar: nosotros mismos. Porque, nadie niega que los resultados mencionados más arriba no son los que deseamos, pero… ¿El sistema está haciendo algo distinto de lo que hace el ser humano? Entonces si se entrena en base a nuestro comportamiento, ¿Por qué le pedimos que actúe de manera distinta a cómo lo hacemos nosotros en la vida cotidiana? ¿Tiene que saber más de nosotros, que nosotros mismos?

Quizás sea hora de asumir que las habilidades blandas llegaron para quedarse y terminar de darle ese empujón, a lo profesionales que somos técnicamente. Pero… ¿Le dedicamos el mismo tiempo a ambas facetas profesionales? ¿Estamos pensando en el nuevo liderazgo?

Mi conclusión es que hay soluciones más profundas:

Si querés un buyer persona que represente mejor a tu cliente… podés entrenar mejor tu algoritmo o también podés mirar que sesgos cognitivos tiene tu equipo de trabajo con respecto a ese cliente.

Si tus tableros de analítica no tienen los resultados que buscás… podés revisar tus KPIS y fórmulas o también podés ver si las creaste en base a lo que ya confirmabas como verdad en base a tus creencias previas.

Si querés que los resultados de tu IA sean más justos… podés aportarle datos más diversos o también podemos trabajar sobre la desigualdad en la sociedad que aporta esos datos.

Ahora te toca elegir: caminos fáciles, difíciles, técnicos, profundos, transformadores…

Quizás el verdadero acto revolucionario hoy no es resistirse a la tecnología, sino mirar dentro de uno mismo y preguntarse: ¿Quién soy, cuando no estoy siendo observado por un algoritmo? Porque cuando la ética no está en la base, la automatización solo acelera la ceguera.

Patricio Gerenni
Licenciado en Sistemas de Información de las Organizaciones (UBA), Auditor de sistemas IT.