TRATAMIENTO DE LOS DATOS PERSONALES DE LOS TRABAJADORES ANTE USO DE NUEVAS TECNOLOGÍAS.
Dr. Rodolfo Becerra Barreiro 2
Resumen: Los cambios en el mundo del trabajo y la utilización de la inteligencia artificial, big data y algoritmos hace que deban surgir nuevas protecciones hacia los trabajadores, si bien el cambio es lo único seguro, en la cuarta revolución industrial los conocimientos del empleador y su utilización deben ser regulados para garantizar los derechos humanos laborales. Se acentúa la subordinación jurídica, se incrementan los poderes del empleador y correlativamente se disminuye la libertad de expresión de los trabajadores.
Palabras clave: Derechos humanos laborales, cuarta revolución industrial, inteligencia artificial, big data, logaritmos.
1. Introducción
El mundo del trabajo está cambiando hacia la cuarta revolución industrial o revolución informática. Ello es así en mi percepción, una nueva forma de producción y de acumulación, motores de los cambios en la historia del hombre. Este desarrollo nunca ha sido pacífico, Colón no vino a América solo a evangelizar, llegó con otras necesidades y ambiciones, por tanto, la historia del hombre es la historia de sus conquistas y de su acumulación de riquezas. Varios de esos motivos han llevado a que en un tiempo fueran importantes las tierras, en otros el oro, luego el dinero, el comercio, entre otras formas de acumulación.
Hoy día el conocimiento es la llave de esa riqueza, el posicionamiento y, por tanto, no es lo principal el poseer las tierras o el capital, quizás el conocimiento supere hoy en día a todos los demás.
En ese sentido y en mi parecer, son nuevas formas de acumulación las que hacen que sea más fácil acopiar las riquezas de esa producción adoptándose las formas a esas nuevas realidades. Ello en el mundo de un mercado que excede lo local, que se globalizó y, por tanto, es uno para todo el orbe.
El dinero electrónico, las transacciones electrónicas, el mercado de internet y estas nuevas realidades hace que todo cambie.
Las épocas del fordismo y el toyotismo son superadas. El mundo ya no produce productos si no es a demanda o con otras formas, de preventa y brokers que compran la producción a remate3 y luego venden. Existen empresas que son solo una marca o una franquicia4.
De las certezas que pueda tener un hombre, la más valedera es la del cambio permanente y, en ese sentido, al variar las formas de producción ha de variar el Derecho del Trabajo5.
Entonces, lo único seguro que tenemos es el cambio, todo ha de cambiar.
Los trabajadores analíticos simbólicos son los preponderantes en este cambio y es tan importante el saber hacer las cosas, para que luego trabajadores de otra parte del mundo en forma repetitiva realicen la tarea.
El plus valor estará en el conocimiento, en la marca, en lo que dicte la pu- blicidad, por tanto, la mano de obra pasa a un segundo plano en muchas de esas tareas. No sucede lo mismo en las tareas de los trabajadores llamados analistas simbólicos6, donde las remuneraciones serán superlativas, pero en las tareas repeti- tivas decrecerá el valor del salario de estos trabajadores por ser más reemplazables que nunca, y serán direccionadas a aquellas regiones que sean más convenientes del punto de vista económico. Ayuda a este modelo el rápido traslado del capital. De allí que la acción de la OIT respecto de evitar el dumping social tome también relevancia como lo tuvo en 1919, al declarar el Tratado de Versailles y luego la Constitución de la OIT la máxima: «Considerando que la paz universal y perma- nente solo puede basarse en la justicia social»7.
Entonces, debemos preguntarnos, ¿cómo será el trabajo de los tiempos venideros en el siglo XXI?
Distinto, primeramente, pero además no será de pleno empleo seguramente. Tendrá incidencia preponderante la seguridad social. Existirán apoyos a la pobla- ción en general que quede fuera de las categorías anunciadas, «el resto», los no trabajadores, que van a ser una parte importante de la población mundial.
En el sistema de mercado deben existir consumidores, de otra manera no aportarían a la cadena necesaria para la producción y su contracara, el consumo.
Nuestras sociedades son, como lo escribía Habermas, «sociedades fundadas sobre el trabajo». El trabajo es el fundamento del orden social que determina ampliamente el lugar de los individuos en la sociedad. Es el prin- cipal medio de subsistencia y ocupa una parte esencial de la vida de los individuos. Trabajar es una norma, un «hecho social total». El concepto de trabajo del que disponemos hoy presenta una doble característica: por un lado, es un conglomerado de capas de significación diferentes que fueran depositadas en los últimos siglos y que, de cierta manera, se sedimentaron olvidando su carácter histórico8.
2. El control y sus límites
Desde siempre ha existido el control del empleador. Es inherente a la organización del trabajo, con la diferencia que hoy día se ha extendido a toda la vida humana y es controlable ya no por personas sino por algoritmos que pueden de- tectar de una conversación telefónica privada una palabra que puede catalogarse como peligrosa, un mail, nuestra huella en las redes sociales o puede rastrearse preferencias para futuras ventas o controles de todo tipo, las cámaras de identifi- cación facial, el ADN, control neurológico de los trabajadores, que hacen que hayamos perdido gran parte de nuestra privacidad y, por ende, de nuestra libertad.
Pero esa contracara de la moneda también implica nuevas mejoras, nuevos avances, nuevas certezas. La pregunta que debemos hacernos refiere a los límites de ese control, pues la tentación del control total existe y la información es poder.
Es así que el trabajador –y todo ciudadano– más allá de que existan límites legales, está a merced del poder, de quien ostente los medios de poder; ello me rememora el poema de Víctor Hugo «La consciencie»9 o el panóptico de Foucault10 o el panóptico laboral en este caso.
3. Los controles de la salud de los trabajadores
Es así que, a pesar de que está prohibido el acceso a los datos de salud de los trabajadores, los mismos en la práctica pueden ser divulgados. Hay empleadores que pagan los estudios de los trabajadores y por ese solo motivo reciben los resultados de los análisis o de los padecimientos que tienen los trabajadores, lo que puede llegar a convertirse en una forma de discriminación a la hora de valorar el rendimiento de esos trabajadores.
Ello se ha incrementado con la reciente pandemia donde en la práctica se hurgó en la historia clínica de los trabajadores preguntando por si padecían el Covid19.
Esta divulgación ha llegado a las grandes corporaciones y es así que Facebook usó entre 2011 y 2015 los datos de sus usuarios para negociar y manipular a sus competidores, según se desprende de la filtración de más de 7.000 documentos de una demanda presentada en un juzgado de California por Six4Three, un ex desarrollador de aplicaciones que acusa a la red social de arruinarlo al cortarle el acceso a estos datos11, lo que derivó en la aplicación de una multa que se considera la mayor de la historia de los EE.UU.
Las formas de rastreo, al ser electrónicas, deben ser protegidas y para el caso de vulneración penadas. En Uruguay se trata de datos sensibles protegidos por la Ley N.o 18.335 de 15 de agosto de 2008 donde se establece que la historia clínica es de propiedad del paciente12, será reservada y la revelación de estos datos tiene causa penal.
4. Los controles de la intimidad del trabajador en redes sociales
Hay empresas que contratan servicios que analizan todas las publicaciones de los trabajadores en sus redes sociales y reportan sobre lo que allí vierten. Mediante el uso de las llamadas big data, los algoritmos recopilan datos y publicaciones que establecen el perfil de cualquier persona. Si bien no hay normativa que prohíba la recolección, se trata del uso que posteriormente se dé a la misma, como forma de preselección de postulantes o como forma de control de los trabajadores en un fino límite entre su privacidad y libertad de expresión y su nexo con el empleador.
Es importante analizar si las expresiones vertidas corresponden a una red cerrada, privada, donde solo se comparte con ciertos usuarios, por ejemplo, un Facebook privado, y en ese caso es de aplicación el artículo 28 de la Constitución y la divulgación sería ilícita.
Pero, generalmente son públicas, se han normalizado en nuestras vidas y han llevado a que los trabajadores sean responsabilizados por sus opiniones, en como sanción por las malas prácticas en el manejo de la seguridad de los datos de los usuarios.
A Facebook se le acusa de haber compartido de manera inapropiada los datos de 87 millones de usuarios con la firma de consultoría política Cambridge Analytica. En https://www.bbc.com/mundo/noticias-4909312, una delgada línea entre manifestarse y la libertad de opinión y que ello constituya justa causa de despido, la NMC.
Es claro que el empleador está en ventaja en el uso de estas tecnologías y que muchas veces se ha presentado como un border line en cuanto al conocimiento de la vida de los trabajadores. A este respecto están prohibidas en nuestro ordena- miento a texto expreso las llamadas listas negras, ello fue dispuesto por la Ley N.o 18.33113, según reseña Osvaldo Mantero.
En nuestro país la AGESIC considera que la transparencia es uno de los principios centrales que debe guiar a la inteligencia artificial en los procedimientos de uso de datos y algoritmos. «Las soluciones de IA utilizadas en el ámbito públi- co deben ser transparentes, cumpliendo con la normativa vigente de acceso a la información pública. Esta transparencia debe: Poner a disposición los algoritmos y datos utilizados para el entrenamiento de la solución y su puesta en práctica, así como las pruebas y validaciones realizadas. Visibilizar explícitamente, a través de mecanismos de transparencia activa, todos aquellos procesos que utilicen IA, ya sea en la generación de servicios públicos o en el apoyo a la toma de decisiones»14.
También es cierto que es un nivel extendido de la subordinación del trabajo que debe cuidar todos estos aspectos, quedando controlado fuera del horario y lugar de trabajo, limitando mucho la libertad individual. Lo que Raso llama el cibercontrol15.
En la actualidad, el Ministerio de Defensa Nacional está instruyendo a los soldados en el uso de las redes sociales.
5. Recientes casos a nivel de derecho comparado
Según el artículo 22 del Reglamento General de Protección de Datos de la Unión Europea (RGPD), las personas tienen derecho «a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles», que produzca efectos jurídicos o que les afecte significativamente de un modo similar. Sin embargo, las decisiones íntegramente automatizadas están per- mitidas cuando sean necesarias para la celebración o la ejecución de un contrato16.
Y es así que las llamadas «plataformas digitales» son las que han introducido las decisiones automatizadas en la actividad laboral.
Por ejemplo, en la selección para puestos de trabajo, en la asignación de tareas, en los procesos de promoción profesional. Son procesos en los que a pesar de tener consecuencias jurídicas pueden tomarse de forma totalmente automati- zada. Las plataformas digitales han sido las primeras empresas donde se gestiona la actividad del personal mediante algoritmos.
Además del RGPD, deben cumplir con los principios de licitud, lealtad y transparencia, exactitud, adecuación o minimización de datos en el tratamiento de los datos personales17. Y, como contrapartida, las personas tienen derecho a la información18, por lo tanto, a saber la lógica que se aplica en la decisión automatizada, y ello significa conocer la utilización, por parte de la empresa, de fórmulas de dirección y organización del trabajo automatizadas sin intervención humana, la lógica utilizada para la toma de dichas decisiones, y la importancia de estas de- cisiones automatizadas y las consecuencias que pueden derivarse de ellas, lo que significa conocer el algoritmo en sí mismo. Lo que significa saber sobre las varia- bles o las métricas utilizadas por el algoritmo para los cometidos que se le asignen.
Según Anna Ginès i Fabrellas, «El derecho a obtener información en las decisiones automatizadas, basado en el principio fundamental de transparencia que rige la protección de datos personales, debe entenderse como el derecho a obtener información clara y simple sobre el funcionamiento del proceso de adop- ción de decisiones de forma automatizada, como ha aclarado el Grupo de Trabajo del artículo 29. En el marco de las plataformas digitales, desde mi punto de vista, este derecho de información implica el derecho a obtener información sobre las variables o las métricas utilizadas por el algoritmo para la distribución de tareas, la asignación de franjas horarias, la retribución o la desconexión de la plataforma; el derecho a conocer también su ponderación o su importancia relativa dentro de la ecuación, y, finalmente, el derecho a conocer las consecuencias que pueden derivarse en caso de no alcanzar las métricas o los estándares establecidos»19.
Es el caso español de los llamados riders, o entre nosotros deliberys, repartidores en español, el Supremo Tribunal Constitucional en setiembre de 2020 estableció que los repartidores son trabajadores por cuenta ajena y no eran falsos autónomos con contrato mercantil, lo que llevó a que fueran dados de alta en la seguridad social.
Entre otras cosas, la llamada ley riders estableció que la representación legal de los trabajadores deberá ser informada de las «reglas que encierran los algorit- mos y los sistemas de inteligencia artificial que pueden incidir en las condiciones laborales en las que se rigen las plataformas, incluyendo el acceso y mantenimiento del empleo y la elaboración de perfiles».
Del punto de vista de la parte trabajadora, todo el mundo tiene derecho a saber las razones de las decisiones que le afectan, por lo que no se pueden automa- tizar a través de un algoritmo sin dar explicaciones al trabajador de las mismas20.
El texto de la llamada ley riders tiene solo dos puntos que modifican el Estatuto de los Trabajadores. Por un lado, clarifica que los repartidores que trabajan para plataformas digitales son asalariados y no trabajadores autónomos. Por otro, por primera vez, se regula el derecho de los representantes de los trabajadores a ser informados por la empresa de «los algoritmos o sistemas de inteligencia artifi- cial» que pueden incidir en las condiciones de trabajo, la contratación o el mante- nimiento del empleo.
Otro caso interesante es el despido de 150 trabajadores por un algoritmo, si ya el despido es no deseado el ser despedido por un software es peor21. En el caso de la empresa Xsolla, la filial rusa de una empresa de software y servicios interac- tivos con sede en Los Ángeles, EE.UU., quien ejecutó una reestructuración que ha captado los medios de comunicación de todo el mundo. Sin previo aviso, decidió prescindir de 150 de los 450 empleados de sus oficinas de Perm y Moscú siguiendo únicamente el dictamen de un algoritmo de rendimiento laboral que los conside- raba «improductivos» y «poco comprometidos» con los objetivos de la empresa22. Estos algoritmos están alimentados, cargados, con big data, un recopilador de datos de gran escala.
Existe al menos un precedente muy llamativo. En 2019, Amazon, la madre de todas las empresas disruptivas de nuevo cuño, ya llamó la atención de la revista Bloomberg por su tendencia a despedir a su personal basándose en criterios informáticos23. Frank Pasquale, profesor de la Brooklyn Law School de Nueva York, aborda estas cuestiones en su libro New Laws of robotic (nuevas leyes de la robótica).
En su opinión, quien se define como «un humanista con competencias tecnológicas», la inteligencia artificial no debe suplantar nunca a la experiencia y la capacidad de raciocinio humanas en «ámbitos que tengan claras implicaciones éticas». Es decir, una máquina nunca puede decidir a quién se dispara, a quién se atropella ni a quién se despide, porque lo hará atendiendo exclusivamente a criterios de eficiencia. Decisiones así no pueden automatizarse. No se pueden disociar de un proceso de «reflexión responsable», una herramienta exclusivamente humana. Para el profesor Pasquale, el «jefe digital» siempre será un tirano, porque deshumaniza a las personas al tratarlas como si no lo fueran, «al convertirlas en meras herramientas y negarles su condición de criaturas racionales y libres».
En sí, las matemáticas no discriminan, todo estriba en la forma que se dé al algoritmo, la discriminación sigue siendo humana24.
En el caso de la compañía Amazon, la misma tomó para la selección de personal los currículums de los trabajadores exitosos que trabajaban actualmente en la empresa, nutriéndose de la experiencia propia de la empresa. Se tuvo en cuenta la experiencia exitosa de anteriores contrataciones, ello llevó a que el algoritmo rechazara todos los currículums que tuvieran la palabra mujer, por ser los datos tomados preferencialmente de hombres. La empresa rechazó el proyecto al verificar este error.
También inciden los algoritmos en cuanto a la intensidad del control que se intensifica en aplicación de estas tecnologías cuando el trabajador ya accedió a su puesto de trabajo.
Lo mismo con la finalización de la relación de trabajo, es el caso de los pro- fesores de Washington, que fueron sometidos a un control matemático y luego se despidieron 205 docentes por malos profesores.
La cuestión estriba en si el algoritmo es un secreto de empresa que el empleador pueda reservar o pueden los trabajadores saber a qué fueron sometidos, si pueden verificar los procesos.
Lo lógico habría sido que lo supieran de antemano.
Por tanto, deberían quedar las decisiones finales en manos de una persona o un grupo de personas como sucede con el VAR en el fútbol. También el derecho a conocer los criterios utilizados por el algoritmo y a una clara regulación en pos de la transparencia de los mismos.
6. Algoritmos laborales (big data) e inteligencia artificial (IA)
En la actualidad el concepto de big data o algoritmos laborales expresa la recolección de datos y su análisis por logaritmos matemáticos para su posterior utilización.
Si bien en sí mismo el proceso es neutro, depende de lo que se «cargue» en el mismo, lo que se le pide al algoritmo. Al utilizar el empleador estos mecanis- mos innovadores y recolectores de grandes datos y proceder a su análisis, debería protegerse a la población en general y los vulnerables en particular, en cuanto a la intimidad de los trabajadores.
Como expresa «Valdés Dal-Ré en su voto emitido en una Sentencia del Tribunal Constitucional no. 241/2012 al señalar que: “el legislador ha omitido de forma sistemática la regulación de los nuevos derechos vinculados al desarrollo de las tecnologías… plasmados en varias denominaciones, tales como derechos on line, informáticos, ciberderechos …”»25.
Como se expresara en la parte introductoria, el avance de la humanidad ha sido de hecho no pacífico y la inteligencia artificial26 (IA) y los algoritmos laborales (big data) llegaron para quedarse27 y no son ajenas al derecho del trabajo.
Big data en la interacción de plataformas digitales, en la recolección de datos del trabajador, preexistentes, de diversas fuentes digitales (redes sociales, plataformas digitales, teléfonos móviles, entre otras).
Esos datos están siendo recolectados en cada momento y es así que cuando alguien busca en Google una palabra, la empresa recolecta el lugar geográfico, las preferencias, entre otras cosas, lo que luego es utilizado en la oferta de productos. Entonces, las máquinas simulan inteligencia o se fundan en los procesos de la in- teligencia humana.
Se almacenan y utilizan en una forma inimaginable antes de la cuarta revolución industrial.
Pero no todo es negativo, ello ha llevado a que se puedan lograr saltos cuan- titativos y cualitativos, por ejemplo, en el caso de las vacunas del Covid 19 o se esté intentando mediante estos procesos resolver cuál es el origen del universo.
En el caso del derecho del trabajo, un algoritmo puede recoger todos los datos de un trabajador, lo que hace que la vigilancia sea mucho más intensa.
También son utilizados estos procesos en la selección de personal, lo que hace que las primeras instancias sean más rápidas28.
Además, con el componente de que el empleador ya no se queda con lo que el postulante aporta, sino que recaba datos en las redes29.
Todo dependerá de cómo se programe la selección y de allí que sea la misma discriminadora o no.
La Ley 18.331 de protección de datos personales establece en el artículo 3730 la protección contra la discriminación, y el propio art. 9 de la misma norma indica que el tratamiento de los datos personales es ilícito cuando no se obtenga el consentimiento informado de la persona. Sucede en la práctica que la velocidad de la IA combinada con la big data hace que esto sea impracticable. En los hechos, en los comercios se nos pide el número de teléfono y con ello ya saben el nombre o la cédula, las bases de datos todo lo tienen.
El avance imperceptible pero firme, ha llevado a mejores certezas sobre mu- chas cosas, pero no siempre ese avance respeta derechos de terceros. Son métodos de mercado, de gerenciamiento, de estos tiempos. Por tanto, deben regularse para preservar los derechos, entre otros de los trabajadores. Se trata como lo indica el artículo 1 de la ley referida, de derechos humanos, inherentes a la personalidad humana y, por tanto, comprendidos en el artículo 72 de nuestra Carta Magna los que no están exentos de respeto por falta de normativa expresa según el art. 332 de la propia Constitución.
El camino correcto sería ver desde esta perspectiva la cuestión, la de los derechos humanos31 laborales y no desde la fuerza de los hechos consumados.
7. Conclusiones
El avance tecnológico es constante, como todo acto humano no es neutro en sí mismo. Pero si algo tenemos seguro es que el cambio será permanente, que todo va a cambiar32. La subordinación se vuelve más intensa y el control de los trabajadores, quienes están controlados antes, durante y después del trabajo, dejando una huella digital que se ha de volver permanente.
En este escenario, es imprescindible que los trabajadores estén al tanto de cómo se formulan los algoritmos, que conozcan las reglas del juego y de antema- no, atendiendo a los límites a que debe estar sometido el empleador33. Que las decisiones no sean tomadas mediante su uso, sino que finalmente sean analizadas por una persona que sea la que decida, la toma de decisiones no puede quedar librada a un algoritmo. Que en última instancia exista una ponderación humana de las decisiones.
7. Referencias
1 Para un mayor abundamiento ver XXVIII Jornadas Uruguayas de Derecho del Trabajo y de la Seguridad Social, entre otros, vide: «Tratamiento de los datos personales de los trabajadores», p. 229 y ss.
2 Prof. Adj. en la Facultad de Derecho e Ingeniería en Derecho del Trabajo y la Seguridad Social y RR.LL. en Gestión de los derechos de la Salud y Prof. en la Universidad de la Empresa en Derecho del Trabajo y Derecho de la Seguridad Social.
3 Es el caso de Hewlett Packard (HP).
4 Por ejemplo, Nike.
5 Barbagelata, Héctor-Hugo, Curso sobre la evolución del pensamiento juslaboralista, 1.a ed., FCU, Montevideo, 2009, p. 217, expresa que: «Como consecuencia de la inmersión del Derecho Laboral las realidades del mundo de trabajo, resulta particularmente afectado por los cambios que en él se operan a un ritmo cada vez más acelerado como consecuencia de las transformaciones de las tecnologías y sus aplicaciones, que agregan nuevas actividades o reclaman nuevas destrezas intelectuales o manuales y tornan obsoletas las existentes. (…) Por todo lo cual, es inevitable que se genere en gran escala el efecto descrito por Tulio Scarelli y subrayado por Bruno Veneziani qué se define como el deslizamiento de los contenidos y se caracteriza por el contraste entre la estructura de un instituto jurídico y su función real, de donde resulta que la misma norma puede asumir nuevas funciones enteramente diferentes de las conside- radas originalmente, con independencia de una modificación en su forma».
6 Reich, Robert, El derecho de las naciones. Hacia el capitalismo del siglo XXI, Ed. Vergara, México, 1993, p. 221.
7 Preámbulo de la Constitución de OIT, en https://www.ilo.org/dyn/normlex/es/ f?p=NORMLEXPUB:62:0::NO::P62_LIST_ENTRIE_ID:2453907.
8 Medà, Dominique, Qué sabemos sobre el trabajo, en https://issuu.com/matilez/docs/ que_sabemos_sobre_el_trabajo.
9 https://www.poetica.fr/poeme-49/victor-hugo-la-conscience/.
10 Michelle Foucault fue un psicólogo, filósofo y teórico francés del siglo XX. Nació en 1926 y murió en 1984. Es conocido, entre otros aspectos, por su obra «Vigilar y castigar» escrita en 1975. En el libro retoma la idea de Jeremy Bentham, un pensa- dor inglés quien a fines del siglo XVIII ideó un tipo de estructura carcelaria a la que llamó panóptico.
11 Vide: https://www.lavanguardia.com/tecnologia/actuali- dad/20191107/471440364991/facebook-datos-personales-manipular-com- prar-competidores.html. La Comisión Federal de Comercio de Estados Unidos (FTC, por sus siglas en inglés) ordenó a la red social a pagar US$ 5.000 millones.
12 Ley 18.338. Art. 18 D. La historia clínica constituye un conjunto de documentos, no sujetos a alteración ni destrucción, salvo lo establecido en la normativa vigente. (…) La historia clínica es de propiedad del paciente, será reservada y solo podrán acceder a la misma los responsables de la atención médica y el personal administrativo vinculado con estos, el paciente o en su caso la familia y el Ministerio de Salud Pública cuando lo considere pertinente. También podrá ser solicitada directamente al prestador de salud por el Ministerio Público cuando se trate de la historia clínica de una víctima de un delito cuya investigación tenga bajo su dirección, siempre que recabe previamente el consentimiento de aquella o, en su caso de la familia, y a los solos efectos de la acción penal. El revelar su contenido, sin que fuere necesario para el tratamiento o mediare orden judicial o conforme con lo dispuesto por el artículo 19 de la presente ley, hará pasible del delito previsto en el artículo 302 del Código Penal.
13 Mantero de San Vicente, Osvaldo, El Derecho sindical. Prevención de los actos u omisiones discriminatorios: aplicación de la normativa sobre protección de datos perso- nales (Ley N.o 18.331).
La Ley N.o 18.331, sobre protección de datos personales, incluye dentro del con- cepto de «dato sensible», a la afiliación sindical (art. 4, lit. E). Queda prohibida la formación de bases de datos que contengan datos sensibles, fuera de los casos expre- samente autorizados y protegidos por la reserva (art. 18) y prohíbe las bases de datos con finalidades violatorias de los derechos humanos (art. 6). Quedan por lo tanto prohibidas las «listas negras» manejadas por algunos círculos de empleadores para discriminar en el acceso al empleo.
14 Así lo expresa Juan Raso en «Algoritmos y trabajo: el derecho a la transparencia», publicado en Academia Brasileira de Direito do trabalho, https://andt.org.br/wp-con- tent/uploads/2021/07/algoritmos-juanraso.pdf.
15 Ob. cit.
16 https://dobetter.esade.edu/es/riders-derecho-algoritmo?_wrapper_format=html. El Reglamento General de Protección de Datos (RGPD) es el marco legal de la Unión Europea que rige la recopilación y el tratamiento de los datos personales de los usuarios. El RGPD entró en vigencia el 25 de mayo de 2018. En artículo web de Anna Ginès i Fabrellas.
17 (Artículo 5 RGPD).
18 (Artículo 14.2.g RGPD).
19 Hay casos de compañía de reparto, ajenas al mundo del delivery, que penalizan al empleado si no sigue la ruta que tiene marcada, «obviando que un desvío puede estar justificado por una obra o un accidente». También otros se utilizan por la empresa para crear clasificaciones por perfiles en base a los niveles de disponibilidad del trabajador, por ejemplo, en auditoras o consultoras, «o que no distinguen entre ausencia injustificadas o bajas por enfermedad», continúa Gutiérrez. Según un estudio de EY para Microsoft en 2019, el 15% de las empresas españolas consultadas estarían utilizando inteligencia artificial en recursos humanos, el doble de la me- dia europea.
Ver en: https://cincodias.elpais.com/cincodias/2021/05/11/econo- mia/1620733460_997870.html.
20 https://cincodias.elpais.com/cincodias/2021/05/11/economia/ 1620733460_997870.html.
21 https://elpais.com/icon/2021-10-10/150-despidos-en-un-segundo-asi-funcionan- los-algoritmos-que-deciden-a-quien-echar-del-trabajo.html.
22 Echarri, Miquel, Barcelona, 9 de octubre de 2021, 04:55 CEST, Diario El País.
23 Uno de los damnificados, Stephen Normandin, fue entrevistado y se convirtió en símbolo de esta manera de proceder en apariencia gélida y deshumanizada. Normandin, veterano del ejército estadounidense de 63 años residente en Phoenix, Estado de Arizona, llevaba varios meses ejerciendo de repartidor en plantilla para la compañía de Jeff Bezos cuando recibió un correo electrónico en el que se le informaba, sin más, de la extinción de su contrato. El algoritmo de rastreo de su actividad cotidiana le había considerado no apto. Una máquina acababa de despedirle. Nor- mandin, que en la revista se definía a sí mismo como «un tipo de la vieja escuela», con una ética laboral «a prueba de bombas», se lo tomó como una afrenta personal. En su opinión, se trataba de un despido «desconsiderado y abusivo», además de inmerecido. Nadie se dirigió a él para explicarle cuáles eran los criterios que habían llevado a la inteligencia artificial a cuestionar su compromiso y su nivel de competencia: «He hecho turnos de 12 horas diarias en un comedor comunitario para refugiados vietnamitas en Arkansas», explicaba. «He demostrado en múltiples ocasiones que soy una persona disciplinada y responsable, no me merezco que se prescinda de mí sin escucharme, atender a mis circunstancias o darme explicaciones». En su opinión, el algoritmo le despidió por su edad, sin tener en cuenta factores como sus ganas de trabajar y su óptimo estado de salud física y mental, pero sus intentos de demostrarlo acudiendo a un tribunal de arbitraje resultaron infructuosos.
24 Cathy O’Neil, matemática de la Universidad de Harvard, ya había advertido lo mencionado: «No creo que sean las matemáticas, sino los algoritmos. Ese es parte del problema; estamos trasladando nuestra confianza en las matemáticas a unos mo- delos que no entendemos cómo funcionan. Detrás, siempre hay una opinión, alguien que decide qué es importante. Si miramos las redes sociales, hay sesgos. Por ejemplo, se ordenan los contenidos en función de quién habla más en Twiter o Facebook. Eso no son matemáticas, sino discriminaciones hechas por humanos. La persona que diseña el algoritmo define qué es el éxito» (Torres Menárguez, 2018). Jorge Toyama Miyagusuku Ponficia Universidad Católica del Perú Miranda & Amado, Ariana Ro- dríguez León Miranda & Amado, en «Algoritmos laborales: big data e inteligencia artificial», en Labour Algorithms: big data and artificial intelligence, en Dialnet-Algoritmos- LaboralesBigDataEInteligenciaArtificial-7448824.pdf.
25 Sotelo Márquez, Ana, «El derecho a la intimidad y los poderes del empleador», ob. cit., p. 305. También cita expresada por Carrasco, Martín, «Redes sociales y poder disciplinario», ob. cit., p. 257.
26 La IA es definida por Álvarez Munarriz como una «ciencia que tiene como objetivo el diseño y construcción de máquinas capaces de imitar el comportamiento inteli- gente de las personas» (1994, p. 19). Por otro lado, según García Serrano, la IA es «(…) un conjunto de técnicas, algoritmos y herramientas que nos permiten resolver problemas para los que, a priori, es necesario cierto grado de inteligencia, en el sentido de que son problemas que suponen un desafío incluso para el cerebro humano» (2012, p. 5). Jorge Toyama Miyagusuku Ponficia Universidad Católica del Perú Miranda & Amado, Ariana Rodríguez León Miranda & Amado. Ob. cit.
27 Ob. cit. En nota 15, según estos autores, la denominación Web 2.0 hace referencia a un conjunto de aplicaciones y páginas de Internet que, a través de sistemas de inteligencia colectiva, proporcionan servicios interactivos en red (…) y las nuevas tecnologías de la información y comunicación (NTIC) hacen referencia a las más modernas técnicas de transmisión y tratamiento de información en específico, las plataformas web – YouTube, Facebook, Twiter, Wikipedia, Dropbox, Google+, etc. (Reis de Araujo, 2019, p. 203).
28 Un estudio de Useful Social Media junto con Hootsuite ha verificado que un tercio de las empresas reconocen la práctica de recogida de datos en las redes sociales para decidir la contratación de un trabajador y los fallos judiciales indican su uso para sancionar al trabajador (2019, p. 229). Jorge Toyama Miyagusuku Ponficia Universidad Católica del Perú Miranda & Amado, Ariana Rodríguez León Miranda & Amado. Ob. cit.
29 Otrora las empresas utilizaban un servicio de informantes que hacía averiguaciones del postulante.
30 Ley 18.331, art. 37, habeas data. Toda persona tendrá derecho a entablar una acción judicial efectiva para tomar conocimiento de los datos referidos a su persona y de su finalidad y uso, que consten en bases de datos públicos o privados; y –en caso de error, falsedad, prohibición de tratamiento, discriminación o desactualización– a exigir su rectificación, inclusión, supresión o lo que entienda corresponder. Cuando se trate de datos personales cuyo registro esté amparado por una norma legal que consagre el secreto a su respecto, el Juez apreciará el levantamiento del mismo en atención a las circunstancias del caso.
31 Vide: Barbagelata, Héctor-Hugo, «El bloque de constitucionalidad de los derechos humanos laborales», en El particularismo del Derecho del Trabajo y los derechos humanos laborales, 2.a edición actualizada y ampliada, FCU, Montevideo, marzo 2009, p. 219 y ss.
32 https://www.elindependientedegranada.es/blog/no-nos-podemos-banar-dos-veces-mismo-rio. Heráclito sostenía: Todo cambia, sean objetos animados, o inanima- dos, todo se modifica, todo se altera. Nada permanece. De ahí la sentencia: no nos podemos bañar dos veces en el mismo río. Y Parménides expresaba que siquiera una vez, porque el río fluye. Estos filósofos de 6 siglos antes de Cristo inspirarían a Hegel en su conocida dialéctica.
33 Vide: Barbagelata, Héctor-Hugo, «Los límites a la flexibilidad del mercado de traba- jo», en El particularismo del Derecho del Trabajo y los derechos humanos laborales, 2.a edición actualizada y ampliada, FCU, Montevideo, marzo 2009, p. 119 y ss.