

Los algoritmos y la reproducción de los comportamientos humanos: también reflejan la violencia de género en la sociedad
Dra. Marina Paula Benitez Demtschenko – Presidenta
Cuando hablamos de “algoritmos”, como en general de muchos temas de informática y de tecnologías, enseguida creemos que esos conocimientos son tan elevados que nunca podremos entenderlos realmente. Parte de ello es cierto, pero no todo; es importante que empecemos a informarnos y “amigarnos” con el cibermundo, porque no nos es ajeno sino todo lo contrario: somos parte de él, y colaboramos a diario en su crecimiento mucho más de lo que creemos.
Sentimos que somos una pequeñísima parte del espacio digital, pero la realidad es que siendo usuaries, somos lo más importante. Las tecnologías, sin usuaries, de nada sirven. Y además las nutrimos todo el tiempo con la información que les proporcionamos.
Intro simple para entender vinculaciones básicas
Partir de este punto, es fundamental. Ya no podemos permitir desconocer lo que implican las tecnologías, cuando nos reconocemos como un eslabón primordial en su desenvolvimiento. Esto pasa con todas las TIC (tecnologías de la comunicación y la información): necesitan de nuestra actividad para ir mejorando su servicio, para nutrirse de datos e información sobre nuestras preferencias, para garantizar cada vez con mayor fidelidad el cumplimiento de sus objetivos y, por sobre todo, para que no dejemos de usarlas. En otras palabras, para que nos resulten casi imprescindibles. Las TIC están en todas partes, en cada pequeño rincón: en (hoy en día) casi todo objeto que utilizamos. Internet y la conectividad enlazan todo ello y nos sumergen en el mundo digital. Por eso decimos que tenemos que conocer muy bien los dispositivos tecnológicos que adquirimos o de los que nos valemos a diario.
En definitiva, para ser conscientes y decidir si aceptamos o no la idea de que, a cambio de grandes beneficios, nuestros datos personales van y vienen, se acopian y se utilizan por las grandes empresas con otros fines distintos de aquellos por los que se recolectaron. Lo dicho tiene una estrecha relación con lo que se denomina “IOT” (del inglés, “Internet Of Things” – “Internet de las Cosas”), ya que hoy en día es muy difícil encontrar cualquier objeto de interés, funcional o instrumental para nuestra vida cotidiana, que no esté conectado a Internet: una alarma para el hogar que se programa desde el celular, una cafetera, una heladera. Incluso una calculadora standard hoy viene con el plus de mayores servicios habilitada que sea su función de conectarse a
Internet. Y así con todo: el IOT ha llegado a abarcar incluso los objetos más íntimos como lo son los juguetes sexuales, que ofrecen distintas programaciones según los gustos de le usuarie pero para lo que piden la conexión, a los fines de recabar la información brindada y almacenarla. Ya hablaremos en próximas publicaciones de esto. Como de tantos otros temas que supone el IOT.
La optimización del sistema tiene un costo
El quid de la cuestión es otro aquí: es volver al punto de partida y preguntarnos “¿Si la web se nutre de nosotres para proporcionar mejores experiencias y servicios, de qué forma lo hace y cuál es el costo que debemos pagar como usuaries?” Me parece interesante primero diferenciar los términos “Internet” y “web”. La primera, es un sistema de redes descentralizadas que permiten la comunicación global; o sea, es el aspecto físico lo que resalta la terminología, haciendo alusión a una tecnología creada para que nos podamos interrelacionar comunicacionalmente no importando el lugar del mundo en donde estemos. Por Internet fluye la información que está colocada en la “web”. La “web” de alguna manera, es ese contenido puesto a disposición y también lo es el ecosistema que conformamos les usuaries. Porque les usuaries somos parte de la web, pero no parte de la Internet. Esta confusión es muy usual, por eso es de suma importancia que empecemos por ahí a entender la complejidad del mundo digital. Más adelante en otras publicaciones explicaré las etapas de la web, ya que comenzó siendo “2.0” y hoy por hoy estamos atravesando la fase “3.0”, que no es lo mismo: en la primera, la web sólo se componía de información a la que le usuarie podía acceder y que podía engrosar publicando, pero no había interacción entre ambos espectros; podemos decir que quien accedía a la información, tenía un rol pasivo. La etapa 3.0 supone que les usuaries interactúan con las distintas herramientas que ofrece Internet, y a su vez estas herramientas o aplicaciones, interactúan entre sí. Las funciones toman de les usuaries sus experiencias para optimizar las respuestas del servicio; hay un intercambio evidente, basado en la recopilación de datos que les mismos usuaries proporcionan, mecanismo llamado “automatización” – con conocimiento o no-, y que dan como resultado una web “intuitiva”: Un red compuesta de muchos elementos que se interconectan y procesan información para adelantarse a lo que le usuarie quiere obtener de ella, en función de la información que previamente le usuarie brindó. Es una explicación muy básica y sin profundizaciones técnicas, pero sugiero que la utilicemos preliminarmente a medida que vamos aprendiendo más cosas.
Los algoritmos
La automatización de datos (su recopilación, almacenamiento y tratamiento) no sería posible sin la existencia de algoritmos: estos son ecuaciones lógicas, creadas por la inteligencia artificial, que van detectando los comportamientos de les usuaries a medida que interactuamos en la web de cualquier forma (entrando a un sitio, haciendo un click, comentando en una red social, descargando una aplicación, haciendo una búsqueda determinada, completando un formulario o comprando un determinado objeto en alguna plataforma comercial, etc.). Los algoritmos toman esa información que brindamos y van creando fórmulas y estadísticas: por ejemplo, si somos asidues compradores online de equis producto, toman esos datos e “intuirán” que nos interesan también otros productos relacionados; con esa estadística creada y puesta a evaluación de cómo funciona y si da resultado, harán nuevas fórmulas que servirán para otras cosas y así. Los algoritmos permiten que la información que dimos, sea usada más adelante para mejorar nuestra experiencia, a nivel personal y también a nivel de la comunidad digital entera.
Se usan no sólo con fines comerciales sino también con fines de interés público por ejemplo para intentar predecir el comportamiento social en aspectos como la salud pública, la cultura, las preferencias políticas: mediante algoritmos puede hacerse una estadística bastante precisa de lo que une usuarie cualquiera votará en las próximas elecciones. O una comunidad equis, en cualquier parte del mundo. Por ello la información que brindamos es tan preciada. Puede garantizar el éxito en determinado objetivo que se plantee, ya que sintetiza los perfiles de las personas con base en la información que esas personas han dado sin siquiera saberlo, en la mayor parte de los casos.
Los algoritmos y la violencia de género
Estos mecanismos o fórmulas mediante la inteligencia artificial, facilitan la automatización de la información para prever los comportamientos humanos estadísticamente. Y por tal, es un reflejo muy cabal de todo lo que ocurre en el plano analógico (el “no digital” o “real”). Por ello, si la sociedad genera experiencias en la web que son machistas, también así se programarán los algoritmos. Por ejemplo: si la pornografía violenta es la que más se consume a nivel mundial, se ofrecerá a los usuarios contenidos de esta índole (con preferencia y con cada vez mayor asiduidad). Lo mismo pasa con los comentarios: si a determinados contenidos se presentan comentarios misóginos, los algoritmos naturalizan esas respuestas frente al estímulo y tomarán esa información como la reacción esperable, legitimándola.
¿Los algoritmos sólo “levantan información”, o también pueden generar patrones de comportamiento humano?
A mi entender, la segunda. La naturalización de la violencia, como dije arriba, está dada no solo por la sociedad per se sino reforzada por estas ecuaciones lógicas creadas artificialmente, las que serán reproducidas luego (cuando esa información, ya elaborada como una “secuencia”, sea volcada sobre la sociedad que la generó en primer lugar). Como toda fórmula mercantil, la oferta y la demanda articulan también acá. Si los algoritmos han detectado que los autos color negro son los que generan mayor interés y venta, se empezarán a ofrecer más autos negros que del resto de los colores y ello llevará por ende a que se oriente a las plataformas a crear demanda adicional sobre el mismo producto. La sociedad buscará mucho más los autos negros que antes, porque es lo que se les pone a disposición hasta el cansancio. Si hay un patrón detectado respecto de cualquier interés entre determinadas personas de una comunidad, la oferta será sobre cuestiones vinculadas a ello, volviendo sobre dichas personas en forma de estímulos que las llevará a reafirmar dicho interés, y consumir más de él.
La violencia de género es una problemática que también se refleja críticamente en la web y los distintos espacios digitales. Y los algoritmos receptan la información brindada por les usuaries frente a distintas situaciones sociales en que las mujeres nos encontramos sumidas a la voluntad patriarcal, y la estandarizan. Entonces, las secuencias creadas lo son en función de una línea machista. Básicamente porque la programación también es hecha por quienes detentan el medio tecnológico de producción en mayor porcentaje: los varones cis promedio del mundo. Porque si se reflejan comportamientos sociales mediante estas ecuaciones, y aquellos son machistas, las ecuaciones darán resultados machistas, lógicamente.
El ejemplo más representativo es el de la detección de imágenes de desnudos de mujeres en las redes sociales. Los pezones son uno de los elementos preferidos de detección de los algoritmos. Se han programado estos últimos para que cuando se subiera una fotografía de un torso de mujer desnuda, inmediatamente se proceda a la baja porque los pezones culturalmente están vistos por la sociedad como “obscenos”. Los algoritmos estarán diseñados para que no haya una reacción disfuncional en la comunidad digital frente al contenido, entonces los censuran. Algo muy llamativo, que no pasa con las imágenes dinámicas o estáticas de pezones de varones, y ni que esperarlo del material que se vierte en la web donde hay violaciones, exposición no consentida de la intimidad de una mujer, o imágenes comerciales de mujeres semidesnudas.
¿Por qué los algoritmos no recopilan esta información como disvaliosa? Porque el comportamiento social en torno a dichos casos no es disvalioso. Más bien genera mayores consumos de determinado contenido, viralizaciones que son muy útiles para las empresas que usan la información, interacciones de todo tipo y sobreactividad que da rédito económico. En definitiva, lo mismo que pasa fuera de la web: la desnudez femenina que es un escándalo, es la que presenta cuerpos no sexualizados, normales, el de cualquiera de nosotras en nuestra existencia elegida y conforme decidimos autopercibirnos. Pero los cuerpos comerciales, pornográficos, cosificados y violentados generan respuestas traducibles económicamente, entonces son permitidos.
De esta manera es como los algoritmos recopilan toda y cada una pieza de información que vuelca la comunidad digital, pero también reafirman el machismo: si esto funcionó, por más que sea violencia de género, será igualmente ofrecido como producto en el futuro. Caiga quien caiga. Las empresas que diseñan algoritmos pueden prever esto y cambiar el curso de la conciencia digital, pero no lo quieren hacer. Rencauzar la conciencia colectiva hacia espacios libres de violencia hacia las mujeres les genera pérdidas económicas monstruosas. Básicamente, porque tendrán usuarios insatisfechos que no vean nutrida de estímulos constantes su voracidad para con nosotras.
Esta obra está bajo una Licencia Creative Commons Atribución – No Comercial – Sin Obra Derivada 4.0 Internacional.
Dejanos tu comentario