Sunday, April 3, 2022

Tecno fobia

¿Es la tecnología destructora de la vida,  preservadora de la vida o solo un mero instrumento neutral? ¿es, por ejemplo, el IPhone la muestra de una  tecnología que nos esta transformando en zombis o un instrumento vital que nos permite estar informados, entretenidos e, incluso, políticamente activos? 

 

La tecnología, y esto no es una sorpresa para nadie, siempre ha sido parte del desarrollo humano y sin ella no seriamos lo que somos. Según pensadores tecno fóbicos como Jacques Ellul, Martin Heidegger, Herber Marcuse, Lewis Mumford y Ted Kaczynski, el “infame” Unabomber, la cuestión no es esta, sino la cosa es si el progreso tecnológico concuerda con el progreso humano, si la tecnología  esta ayudando a lograr nuestros fines o, por el contrario, esta determinando nuestros fines.

 

Pensemos por un momento solo en esto... compramos dispositivos para satisfacer nuestras necesidades, pero, una vez comprados, quedamos tan fascinados o dependientes de ellos que desarrollamos nuevas necesidades y nuevos dispositivos solo para mantener su funcionamiento.  

 

Heidegger, en uno  de sus últimos escritos, decía que en todas partes permanecemos sin libertad y encadenados a la tecnología, ya sea que la afirmemos o la neguemos apasionadamente. Y la peor manera posible de entregarnos a ella, dice, es cuando la consideramos como algo neutral. Es esta creencia a la que hoy nos gusta rendirle homenaje, la que nos deja mas vulnerables y nos ciega por completo a la esencia de la tecnología. La característica definitoria de la tecnología moderna, continua, es la reducción de la naturaleza a una mera fuerza de energía controlable que la tecnología extrae, cosecha y almacena y es esto lo que la hace ver como un mero medio al servicio de nuestros fines y necesidades. Y es justamente esta idea la que nos ciega al hecho de que hemos caído bajo el dominio de la instrumentalidad, de que nosotros mismos nos hemos convertidos en instrumentos para la tecnología.

 

La actividad basada en datos es la expresión contemporánea de nuestra creciente voluntad de permitir que las tecnologías regulen y controlen nuestra vida diaria. Si en los tiempos pasados necesitábamos que otros humanos nos ordenaran y nos dieran tareas para ocuparnos, hoy hay una aplicación para eso. Netflix puede decirnos que mirar, Amazon puede decirnos que comprar, Google nos puede decir que pensar y eHarmony puede decirnos a quien amar. En otras palabras, dice el escritor Nolen Gertz, hemos reemplazado la regularidad irreflexiva mecanicista con la regularidad irreflexiva algorítmica de las predicciones, las opciones y los comandos basados en datos. A pesar de que estos pueden ser invasivos, el progreso tecnológico pareciera medirse mas y mas, no por la protección de nuestra privacidad, sino por la precisión de las predicciones de los algoritmos. En lugar del “Big Brother” hoy tenemos el “Big Data” que voluntariamente invitamos a nuestras casas, a nuestros dispositivos y a nuestros cuerpos.

 

El ejemplo mas común de la obediencia ciega basada en datos es nuestra creciente dependencia de los algoritmos. Google no solo predice lo que estamos buscando, sino que nos dice cuando lo hemos encontrado. Los algoritmos de Amazon no solo predicen lo que queremos comprar, sino que nos dicen cuando debemos comprarlos. Facebook no solo predice con quien queremos ser amigos, sino que nos dice cuando y con quien debemos querer mantenernos en contacto. Lo que esta en cuestión aquí no es que estos algoritmos afirmen conocernos, sino que les creemos. Ellos hacen recomendaciones que se supone son adecuadas a nosotros. Pero, la cosa es que no tenemos forma de saber si, y en que medida, tales recomendaciones son verdaderas. Con frecuencia ni siquiera estamos conscientes de los algoritmos que actúan  detrás de las cortinas de la tecnología con las que interactuamos.

 

Un investigador que estudiaba como se comportan las personas en línea debido a los algoritmos encontró  que los participantes de la investigación no sabían que su comportamiento estaba  siendo influido por algoritmos. El 60% de estas personas no sabia que Facebook estaba filtrando sus Fuentes de noticias. Incluso si estamos conscientes de tales algoritmos, dice Gertz, todavía no estamos conscientes de que saben los algoritmos acerca de nosotros y de como se utilizan esos datos. En buenas cuentas, los algoritmos pueden aprender sobre nosotros, pero nosotros no podemos aprender sobre ellos y este es un arreglo que no solo aceptamos, sino que activamente participamos en el a diario, incluso cuando intentamos luchar en contra de ellos. Estos algoritmos son programas de computadoras que contienen una serie de instrucciones diseñadas de tal modo que los programas informáticos pueden clasificar cantidades masivas de datos para perfilar, juzgar y determinar, por ejemplo, lo que suele gustarle o no a la gente como tu o yo. 

 

¿Como los algoritmos pueden predecir nuestras conductas? Porque nos hemos vueltos predecibles. Esto es algo que nos hacemos los unos a los otros a través de las costumbres, la moral y la civilidad que nos indican como comportarnos correctamente. El precio de esta predictibilidad es que no solo nos hemos transformados en seres uniformes, regulares y calculables, sino también en sujetos  des individualizados. La individualidad es peligrosa porque es impredecible y lo que la sociedad quiere es, por el contrario, la conformidad y la regularidad. El reemplazo de la identidad personal por nuestro deseo de aceptación personal puede ayudar a explicar porque estamos tan dispuestos a vivir determinados por los algoritmos.

 

Esta predictibilidad de las conductas humanas ciertamente no es nada nuevo. La manipulación, el adoctrinamiento, el condicionamiento y la tortura tienen una historia milenaria, pero, al menos, era un procesos humanos, algo que nos hacíamos unos a otros. Lo que es nuevo ahora es que este trabajo realizado por el humano sobre si mismo ya no esta siendo dirigido únicamente por humanos. Los algoritmos no solo son medios con los que obtenemos nuestros datos, sino que ellos también activamente están moldeando nuestras conductas e identidades. Como nota Gertz con el reemplazo del “Big Brother” por el “Big Data” tal vez hemos perdido la única gota de esperanza a la que todavía podíamos aferrarnos, a la creencia de que incluso si la mayoría de los humanos hemos sido reducidos a meros títeres, todavía quedaban algunos humanos que no eran títeres y que eran los que tiraban los hilos.

 

¿Podríamos decir lo mismo hoy día? Aunque los instrumentos y las creencias que cubren la manipulación y el adoctrinamiento de la población han cambado, lo que no ha cambiado es la idea de que el conocimiento se pueda convertir en poder. Alguien esta recopilando datos, escribiendo algoritmos y beneficiándose con ello. Pero, la gran mayoría de nosotros no sabemos que es lo que los algoritmos saben y como ellos funcionan debido al secreto, según la presunción prevalente. Si hay una “caja negra” que contiene la infraestructura algorítmica, es porque los diseñadores construyeron tal “caja” a partir de una compleja mezcla matemática, legal y burocrática. Su conocimiento, entonces, es posible y si los que estamos siendo impulsados por lo que esta dentro de “la caja” no tenemos este conocimiento es porque no tenemos acceso a el o, al menos, no todavía. En principio, podríamos acceder a el si adquirimos esa especialización cognitiva.

 

¿Es este realmente el caso? Tal vez la suposición de que siempre hay un ser humano en “el circuito” ya no corresponde a los hechos. Según Andrew Moore, ex vicepresidente de Google, los codificadores escriben algoritmos. Los algoritmos producen resultados. Pero, la forma en que se produjeron estos resultados no esta clara, no solo para aquellos de quienes se tratan los resultados, sino también para los mismos autores de los códigos que producen los resultados. Mientras las maquinas aprenden mas y mas acerca de nosotros, nosotros aprendemos menos y menos acerca de ellas. Y esto no porque las maquinas nos engañen, sino porque ellas, según Moore, no son tan inteligentes, ya que solo siguen las reglas. Y lo curioso es que cada vez mas se esta dando el caso de que nadie sabe como estas maquinas están siguiendo las reglas o que información se incluye o excluye. 

 

¿Por que, entonces, a pesar de que nadie sabe realmente como funcionan estos algoritmos, todavía confiamos en ellos? Nietzsche diría porque nadie sabe como los algoritmos funcionan. Mientras mayor sea la opacidad, mayor el misterio y mayor la fe. Los humanos son falibles y cuanto menos sea el papel que ellos jueguen en los algoritmos, mas grande es el aura de infalibilidad que los rodea.

 

Sabemos que los algoritmos cometen errores, pero estos son atribuidos a errores humanos, no mecánicos. Si una predicción algorítmica, dice Gertz, recomienda incorrectamente un producto, si niega incorrectamente un préstamo bancario o un dron apunta incorrectamente al objetivo deseado, se cree que este es el resultado de una parcialidad o prejuicio humano o a una falta de información en el diseño del algoritmo. La primera excusa puede usarse para justificar el reemplazo de humanos por maquinas, en tanto que la segunda puede usarse para justificar aun mas el reemplazo de los valores humanos, como la privacidad, por los valores de la máquina, como la eficiencia, por ejemplo. 

 

A medida que los algoritmos se vuelven mas complejos y mas integrados en la sociedad, es cada vez mas probable que nos quedemos sin otra alternativa que tratar de que los algoritmos “buenos” luchen contra los algoritmos “malos” . Al final terminamos de todas maneras con que las decisiones las hacen los algoritmos.

 

Podemos cerrar nuestras aplicaciones y dispositivos con la ilusión de que así escapamos a su influencia. Pero, en ultima instancia, ellos no se desconectan de nosotros. Las nuevas tecnologías digitales son invasivas no solo en términos de nuestra privacidad, sino también en términos de nuestra perceptividad. Podemos pasear en el parque sin teléfono con el fin de encontrar una experiencia sin intermediarios y, aun así, seguimos experimentando el mundo a través de nuestros dispositivos. Si vemos, por ejemplo, una rosa de un brillante amarillo la percibimos no solo como hermosa, sino como digna de Instagram o cuando experimentamos un evento lo experimentamos no solo como algo memorable sino también como algo digno de Twitter.

 

 Perfeccionar las tecnologías ... ¿ayuda o dificulta nuestros intentos de mejorarnos? y, mas importante... ¿ que significa “mejorar”?

 

Nieves y Miro Fuenzalida.


No comments:

Post a Comment