Cómo impactar los aspectos éticos de la inteligencia artificial en el trabajo futuro
Lucía Rosario Malbernat Mg.
Si bien los orígenes de la robótica industrial y la Inteligencia Artificial (IA) se remontan a mediados del siglo XX, y desde hace más de 30 años la industria informática no incluye técnicas propias de IA en sus desarrollos, no ha sido hasta la última década. . . Que las organizaciones estén empoderadas para tener un impacto tangible de estas tecnologías en sus procesos internos, sus productos TI y sus servicios, aprovechando los beneficios y oportunidades estratégicas que brindan pero estando sujetas a nuevos problemas, riesgos y dilemas.
En la industria, la robótica hace más eficiente la producción, reduce errores y puede aumentar la calidad de los productos mientras que la inteligencia artificial permite a los sistemas informáticos delegar tareas repetitivas y tomar decisiones que antes eran realizadas por personas, pero ¿qué pasa con ¿Estás trabajando?, ¿qué son? ¿tú? ¿vas a hacerlo? ¿eres? ¿eres? ¿Pueden ocurrir nuevos accidentes? ¿Qué pasa si hay un mal uso de la tecnología? Cuanto más potentes, fuertes o rápidos sean los sistemas, más daño pueden causar.
En julio de 2022, un robot, Chessrobot, le rompió el dedo a un niño de 7 años durante un torneo de ajedrez en Rusia. Se definieron reglas de seguridad que incluían esperar hasta que el robot terminara de moverse, pero el niño no se movía rápidamente y el robot lo sujetaba con la mano. La inteligencia artificial te ha permitido jugar y ganar en el campo, pero no sirve para detectar el riesgo que impide tu movimiento. Pero el propio robot no supone que esto vaya a suceder inesperadamente… las autoridades del torneo serán consideradas responsables del accidente, al menos inicialmente, incluso en la infancia.
El avance práctico, generalizado y global de las nuevas tecnologías, entre ellas el Internet de las Cosas, la IA, la Robótica, la Realidad Aumentada, el Big Data, etc., a veces llamadas Tecnologías 4.0, que surgen de ideas, predicciones y pronósticos, tanto académicos como científicos. y de desarrollos beta, modificando la concepción tradicional de la ciencia para hacerla transdisciplinaria, con límites difusos, donde las estrategias pueden ser propias de una determinada disciplina y el objeto de estudio es un complejo que integra elementos físicos, biológicos y digitales, revolucionando el camino. en el que se produce y realiza el trabajo.
Un caso extremo son las interfaces cerebro-computadora que decodifican la actividad neuronal del usuario para controlar dispositivos informáticos, prótesis o programas de ruedas, cuyo uso actualmente está restringido a pacientes con parálisis profunda pero que abre multitud de posibilidades para el futuro. . lo cual tendrá un alto impacto en las organizaciones.
Pareciera que hoy no tiene sentido hablar separadamente del mundo físico y del mundo digital porque son dos aspectos del mismo contexto. Cada vez más elementos de la vida cotidiana se virtualizan o se tecnologizan. Tal es el caso de las actividades financieras: Minimizamos el uso del dinero físico (monedas y billetes) y resolvemos hasta las compras más cotidianas mediante intercambios de información digital que pueden realizarse desde cualquier Smartphone. De un momento para el otro hemos dejado de llevar la billetera al mercado; alcanza con cargar el teléfono celular en un bolsillo.
Esos cambios tan dinámicos que han impactado en el usuario individual, en las organizaciones dedicadas a producir y a comercializar han aportado nuevas miradas hacia los conceptos de trabajo, empleo y puestos de trabajo que permiten pensar, antes que en la sustitución de trabajadores por máquinas, en el verdadero potencial de los recursos informáticos para mejorar la futura vida laboral y la productividad de las empresas que deberán adaptar la mayoría de sus tradicionales puestos de trabajo a la nueva realidad.
Por otra parte, la madurez tecnológica de las organizaciones demandará recursos para afrontar las amenazas que ya recaen sobre el perfil tradicional de los empleados requeridos en cada puesto laboral. Esos recursos son del orden normativo y formativo.
Para la Organización Internacional del Trabajo, los avances tecnológicos implicados por la Inteligencia Artificial, la Automatización y la Robótica generarán nuevos puestos de trabajo y en la transición podrán perder sus empleos los menos preparados para aprovechar las nuevas oportunidades. Probablemente, las competencias en las que hoy se forma a los profesionales no se ajustarán a los trabajos de mañana y las nuevas competencias adquiridas podrán quedar desfasadas rápidamente.
Con la implantación efectiva de innovaciones basadas en inteligencia artificial a nivel gubernamental, industrial y comercial, las nuevas tecnologías inteligentes, capaces de resolver problemas complejos y, en ocasiones, capaces de aprender a partir del análisis de datos, comienzan a impactar en la sociedad y a tomar cuerpo algunos dilemas éticos que podrían no estar siendo contemplados en cada desarrollo.
Estos dilemas no son meros planteos filosóficos; por el contrario se materializan en riesgos concretos con alcance a personas individuales, organizaciones corporativas y estados, lo que ha llevado en el último quinquenio a la definición de estrategias y planes de desarrollo conscientes, con base en la capacitación y en la definición de normas, con el fin de enfrentar a los peligros de vigilancia masiva de fácil aplicación y mantenimiento, a las nuevas amenazas hacia la privacidad y dignidad de las personas, al aumento de prejuicios de género o étnicos, etc.
En este sentido, es posible mencionar la polémica que surgió en algunas regiones de Estados Unidos cuando se descubrió que el algoritmo Compas, Correctional Offender Management Profiling for Alternative Sanctions, tenía un sesgo racista, que utiliza variables como sexo, edad , entorno económico-social y arrestos para determinar la probabilidad de reincidencia criminal y ayudar a los jueces a decidir si un acusado debe permanecer en prisión mientras espera el juicio.
Un estudio encontró que Compas obtuvo un porcentaje similar para los humanos, algo más del 60% de aciertos, si un condenado recaería en los próximos años y logró un 20% en las predicciones de reincidencia con violencia; Además, llegamos a conclusiones muy peligrosas: los acusados negros fueron catalogados con mayor riesgo de reincidencia que aquellos que realmente la tenían, mientras que los acusados blancos fueron catalogados con un riesgo menor. Las empresas se han formado en datos históricos que incluyen detenciones injustas de minorías raciales y que están provocando distorsiones de predicciones que conducen a decisiones erróneas.
Claramente, los sistemas que utilizan IA deben ser transparentes y explicables. Las organizaciones que emplean este tipo de tecnología deben garantizar la protección de datos, deben poder identificar, por ejemplo, quiénes prueban y utilizan sus sistemas, qué datos se utilizan en las pruebas y entrenamiento de modelos y cuál es la lógica de sus algoritmos, cuáles Debe ser confiable, robusto y sin diferencias ideológicas, de género, étnicas, religiosas, etc.
Este problema es el que requiere el desarrollo de estándares, la generación de buenas prácticas y la capacitación de todos los involucrados, independientemente del lugar que ocupen en la pirámide organizacional y el rol que desempeñen.