Si googleamos «Nuevo algoritmo de Instagram 2022» la búsqueda arroja cerca de 9.940.000 resultados en 0,39 segundos. Lo que buscan tantos internautas es la última estrategia de programación que ha logrado esta plataforma social para que sus usuarios «se topen» primero con el contenido que más les gusta y permanezcan en él por más tiempo. El resultado son más visitas a un blog, a una web o a una tienda online, por eso no solo Instagram se apunta a la rentable carrera algorítmica; también lo hacen Tik Tok, Twitter, YouTube y Facebook (aunque estas últimas dos en menor medida).

Los algoritmos de las redes (y su rentabilidad) se perfeccionan año a año. Por eso, si antes las pantallas nos mostraban los contenidos ordenados cronológicamente, hoy vemos primero, y con mayor frecuencia, los que más concuerdan con nuestros intereses personales. «El subtexto parece ser que las máquinas entienden lo que queremos mejor que nosotros mismos»1, comenta Brian Contreras, de Los Angeles Times. Y es que, en cada red, el espiral de los contenidos personalizados comienza por una acción que lleva a cabo el propio usuario: una búsqueda en la lupa de Instagram o el feed «para ti» de TikTok, por ejemplo. El tiempo que permanecemos en una publicación o quiénes son nuestros contactos son otros datos que las redes toman como «señales» de quiénes somos y qué nos gustaría consumir.

La eficiencia de los algoritmos se mide por la exactitud con que emparejan los contenidos disponibles al perfil personal de un usuario o a su situación vital. Sin embargo, sabemos que esta eficiencia no se corresponde con un perfeccionamiento paralelo en habilidades exclusivamente humanas como son la prudencia o la moralidad. De ahí que, aunque lo que aparezca en nuestros dispositivos sea coherente con nuestra edad, con las características de nuestros contactos o con alguna búsqueda específica que hayamos hecho en la red, a menudo damos con publicaciones que en realidad no nos convienen.

Un ejemplo de este tipo de experiencia fue recogida por Los Angeles Times, que entrevistó a varias mujeres que sufrieron de ansiedad severa tras haberse expuesto a un «bombardeo» de contenidos emocionalmente estresantes. Todas narraron que, estando embarazadas, sus dispositivos comenzaron a mostrar productos para bebés o tips de crianza pero que pronto filtraron también cosas que nunca hubieran buscado. Estas incluían relatos sobre bebés que nacían muertos, casos de enfermedades infantiles extrañas o partos espeluznantes. Las mujeres describieron el conflicto de sufrir al mirarlas y al mismo tiempo no poder «desengancharse» de ellas.

A propósito de este tipo de situaciones se ha manifestado Stuart Russell, profesor de la Universidad de California en Berkeley y experto en ingeniería e inteligencia artificial (IA). Entrevistado por la BBC, advirtió que: «Si construimos la IA para optimizar un objetivo fijo dado por nosotros, ellas (las máquinas) serán como psicópatas, persiguiendo ese objetivo y siendo completamente ajenas a todo lo demás, incluso si les pedimos que se detengan». Acercándose a la comparación que ha hecho Elon Musk de la IA con la energía nuclear, para Russell la optimización de los algoritmos puede traer «enormes problemas para la sociedad». Aunque, a diferencia de las bombas atómicas, el daño de los algoritmos es «lento y de modo casi invisible».

Más allá de la ansiedad individual que podamos sufrir por el torrente de contenidos personalizados pero dañinos, como el caso de las mujeres embarazadas, la lógica de los algoritmos encierra un peligro social más sutil. La hiperpersonalización de contenidos para el que están programados acentúa lo que Charles Taylor describía como el primero de los tres grandes malestares de nuestra sociedad: el individualismo, que es la contracara de las libertades individuales ganadas en la Modernidad.

En efecto, uno de los logros más importantes de la época moderna es el grado de libertad del que gozan las personas. Hoy tenemos más oportunidades que nuestros antepasados para ser auténticamente quienes queramos ser: decidimos nuestras convicciones morales, desarrollamos vínculos con quienes preferimos, adoptamos nuestros propios gustos estéticos de entre una creciente variedad de posibilidades. El éxito de las redes se alimenta de esa realidad. No obstante, esta facilidad para elegir lo propio puede desembocar en un «angostamiento»2 vital. Como indicaba el filósofo canadiense, los ciudadanos de la «generación del yo», terminan con «la sensación de que sus vidas se han vuelto más chatas y angostas, y de que ello guarda relación con una anormal y lamentable autoabsorción»3.

Un buen algoritmo se basa en encontrar y explotar la individualidad del usuario. Si está bien hecho, la red le dará a éste solo aquello que le interesa, y multiplicado. Si sirve, únicamente lo conectará con usuarios que piensan lo mismo que él; lo expondrá a frases que ya se dice a sí mismo y a experiencias que confirman su propia visión de la vida. Así, la rentabilidad de los espacios ultra personalizados se apoya en eludir que las opiniones personales sean desafiadas, o que el usuario entre en contacto con opciones alternativas de ser. En este solitario empacho del yo, el internauta pierde contacto con lo otro, con lo distinto, con todo eso que lo obligaría a pensar y a dialogar hacia afuera.

Desde la tecnología, Russell advierte que el peligro de las redes no son solo la adicción y la depresión de las que últimamente se habla; las advertencias vienen también por la «disfunción social, tal vez extremismo, (y la) polarización de la sociedad» que pueden generar. Desde la filosofía, Taylor predecía la paradoja de que, en esta intoxicación de elegir lo propio en la que el hombre posmoderno busca su autenticidad lo que encuentra al final son formas «chatas y superficiales» de ser uno mismo.

Notas

1 Brian Contreras, El algoritmo sabe que estás embarazada y lo que TikTok te muestra es aterrador.
2 Es la palabra que usa Taylor. En Op. Cit., p. 39.
3 En entrevista con la BBC.