Quien decide por nosotros?
Nos recomiendan películas, nos dicen qué comer, con qué juegos nos vamos a divertir y qué ejercicios físicos hacer. Los algoritmos nos estudian, aprenden y nos ayudan a tomar decisiones y ahorrar tiempo: los datos no dudan. ¿Cómo impacta esto en la construcción de las nuevas familias, chicos, adultos? ¿Estamos perdiendo capacidades reflexivas? ¿Pensamos cada vez menos?
Cultura digital
¿QUIÉN TOMA TUS DECISIONES?
Por Esteban Magnani Ilustración Sebastián Angresano
Se recomienda leer la nota completa en su fuente: Revista Anfibia
La historia de inventos exitosos que, tras una etapa de vacíos legales, deben ser regulados por sus efectos sociales es extensa. En la actualidad, un producto relativamente nuevo como las redes sociales y otras plataformas digitales omnipresentes y desreguladas han aprendido en poco más de una década a usar el mundo digital como gigantesco laboratorio de experimentación, un laboratorio financiado con miles de millones de dólares para dar con la(s) fórmula(s) mágica(s) que “atraparán” a los usuarios de internet.
La lista de ejemplos es larga: los algoritmos nos estudian, nos agarran de la mano y nos muestran el camino a seguir. Los de Netflix aprendieron algunos de nuestros comportamientos culturales y nos recomiendan películas que podrían interesarnos. Otros han comprendido que en general se prefieren juegos cuya curva de aprendizaje es de un par de segundos. ¿Años para a tocar el piano? No, para qué. Mejor chatear para controlar tiempos y mensajes que hablar cara a cara y sentir el costo de sabernos observados. La promesa capitalista de disfrutar sin interrupciones ni consecuencias es posible en el mundo perfecto del diseño digital. Los algoritmos nos simplifican la vida y nos ahorran “la pérdida” de tiempo de la duda. Gracias a su conocimiento de nosotros mismos, superior al propio, pueden ofrecernos un atajo para maximizar la felicidad potencial que se juega entre quiénes somos y las opciones que nos ofrece el mundo.
Pero detrás de la simulación de un poder benévolo que solo nos ayuda a elegir lo mejor para nosotros aparece el poder para empujar ciertas acciones: que compremos en determinado lugar, agreguemos otro producto a nuestra canasta de deseos, nos posicionemos frente a las noticias (¿nos gusta, nos sorprende, nos…?), trabajemos un ratito más o votemos por tal o cual candidato. ¿Cómo podrían las corporaciones no ceder a la tentación de llevar un poco más de agua a su molino? En el neoliberalismo perfecto del mundo digital las regulaciones prácticamente no existen y, para algunos, ya no podrán existir.
Es el capitalismo
En una interesante entrevista de Todo es Fake, uno de los podcasts de Revista Anfibia, la investigadora Sonya Song explicaba: “Lo cierto es que las redes sociales son un lugar donde la gente no piensa demasiado ni piensa de modo profundo. Estas personas pueden ser perfectamente inteligentes, resolver cálculos y otros problemas complicados, pero en las redes sociales no quieren comprometer su inteligencia en los posteos que ven”. Este tipo de relación con las redes sociales facilita la circulación de noticias falsas o recortes de la realidad que enfurecen o generan empatía, a los que comentamos o les damos like; nuestras reacciones emocionales refinan los algoritmos para mejorar aún más la eficiencia de los mensajes futuros. Para evitar este tipo de comportamiento se podría pedir a la gente que ratifique su comentario/like cinco minutos más tarde. También se podrían diseñar herramientas para estimular el diálogo y limitar las respuestas viscerales que parecen estar poniendo en peligro a la democracia, incluso a una ya desbalanceada por los medios de comunicación y el poder económico.
algoritmos_02_caja
El problema no es técnico. Las redes sociales pertenecen a empresas que viven de lo que actualmente se llama “Economía de la atención”. Diseñan plataformas que nos mantengan enganchados, consumiendo nuestro tiempo de atención allí dentro y produciendo contenidos para incentivar la atención de los otros. Si apuntar a nuestras emociones funciona, ¿por qué no explotarlo? No es necesario creer en el conspiracionismo; como titula un artículo de eldiario.es, “Nos son bots rusos, es Capitalismo 3.0 reventando el debate político online”. Toda la maquinaria de ese capitalismo 3.0 está en función de conseguir su objetivo de una manera que resulta explícita si uno rasca un poco la pintura de marketing ingenuo. La información para alcanzar el objetivo circula profusa: Google comparte una presentación sobre el uso del celular para que las empresas sepan cuándo atacar al cliente: el 68% de los usuarios chequea su celular antes de los 15 minutos de despertar, aumentó un 20% el número de sesiones desde smartphones, etc. El resultado es un bombardeo quirúrgico constante que amenaza la capacidad de controlar la propia vida.
Esa atención empaquetada, segmentada, se ofrece a los anunciantes para que mejoren sus ventas o a los políticos para que los voten. El objetivo, en ambos casos, es similar: la manipulación. Esta palabra es casi un anatema entre los cientistas sociales pero, pese a necesitar una reelaboración, debería ser devuelta al análisis. ¿Cómo llamar a los pequeños retoques en los algoritmos de Facebook para experimentar con los estados de ánimo proyectados en las redes o los “jueguitos” de UBER para que los choferes sientan la tentación de dar más vueltas y alcancen nuevos objetivos económicos (algo que en la jerga política del siglo XX se habría llamado “aumento de la tasa de autoexplotación”)?
Justin Rosenstein, el creador del botón de “like” de Facebook explicó en una entrevista que “nuestras mentes pueden ser secuestradas” y compara los “me gusta” de Facebook con chispazos de “pseudo-placer”. Hoy en día Rosenstein confiesa que usa control parental para regular su uso del celular, se autobloqueó de Snapchat y otras redes. La misma nota menciona estudios sobre una nueva atención “constantemente parcial” que seguramente sonará conocida a buena parte de los lectores para quienes dedicarse una hora a una tarea sin interrupciones (posiblemente autogeneradas) debe parecer un lujo de otro siglo. Un ex-desarrollador de Apple explicaba que nunca se propuso “enganchar” a la gente y que “no es inherentemente malo atraer a la gente hacia tu producto” y luego agrega: “es capitalismo”. Es cierto: el objetivo, al fin y al cabo, es el mismo que el de la televisión, la radio o el cine, es decir, comprender nuestros gustos para mantenernos atentos y vender publicidad. La diferencia es que ahora tienen muchos más datos para dirigir sus mensajes con precisión y que los medios digitales están (aún más) firmemente entretejidos en nuestra propia subjetividad que los medios anteriores. En la medida en que pasamos más tiempo en las redes alimentamos más a la bestia y le damos más espacios para llegar a nosotros. Fenómenos novedosos como la nomofobia dan indicios de hasta qué punto el celular y el usuario son parte de la misma cosa.
El coreano Byung Chul-Han lo explica así en su excelente libro Psicopolítica “Si el Big Data proporcionara un acceso al reino inconsciente de nuestras acciones e inclinaciones, sería pensable una psicopolítica que interviniera hasta en lo profundo de nuestra psique y la explotara […] La microfísica del Big Data haría visibles actomes, es decir, microacciones que escaparan a la conciencia. El Big Data podría poner de manifiesto patrones de comportamiento colectivos de los que el individuo no es consciente. De este modo se podría acceder al inconsciente colectivo”.
Sujeción
La forma en que nos construimos como sujetos ha consumido hectolitros de tinta y megavatios de pixeles iluminando pantallas. Desde Antonio Gramsci buscando comprender los mecanismos del sentido común y la hegemonía, pasando por la ideología en Louis Althusser, la disciplina de Michel Foucault o la más actual teoría de género de Judith Butler, la pregunta que horada la academia es ¿qué nos hace ser lo que somos?
La respuesta es que, evidentemente, el sujeto humano no surge de la nada. No hay sujeto sin sociedad. Los niños ferales que sobrevivieron se parecieron siempre a los animales que los adoptaron: no se transformaron en seres en estado de “pura esencia humana”. ¿Pero cómo actúa concretamente el proceso? El debate seguirá eternamente entre los sujetos que, desde adentro de la sujeción, intentan salirse del barro para mirar el fenómeno; la tarea es titánica porque están en el mismo lodo, todos manoseados.
¿Y si el Big Data en lugar de buscar la gran respuesta permitiera establecer las correlaciones puntuales con los “ladrillos” de la realidad con los que nos construimos? En “Todos mienten”, un muy interesante libro sobre el poder de los datos, el periodista y economista Seth Stephen-Davidowitz cuenta que es fanático desde pequeño de un equipo de béisbol de Nueva York, pero que su hermano carecía de interés por ese deporte. ¿Por qué? En busca de una posible respuesta, cruzó datos de los hinchas de cada equipo de beisbol con su nacimiento. Así encontró que el porcentaje de fans de un equipo crece significativamente en las generaciones que tenían cerca de ocho años cuando ese equipo ganó un campeonato. Si bien no pudo dar cuenta del caso particular de desinterés de su hermano, encontró una correlación interesante en los grandes números. ¿Por qué los niños de esa edad son más susceptibles al exitismo que acompaña el trofeo? Posiblemente la psicología podría buscar causalidad pero lo cierto es que, al menos según esta investigación, el fenómeno es estadísticamente significativo. Los niños de ocho tienden a elegir el equipo de su vida entre los exitosos y, ahora que lo sabemos, ¿por qué no explotar ese recurso para diseñar rasgos de nuevos sujetos?
algoritmos_03_col
Pedacito a pedacito, el Big Data permite comprender quiénes somos realmente y los procesos que nos construyen. ¿Será el Big Data capaz de articular un modelo de sujeción coherente incluso sin hipótesis? ¿Lograrán una demolición de la pregunta con la artillería de los datos? Este tipo de preguntas resulta aún más relevante (e incómoda) cuando vemos niños conectados a aparatos desde antes de ser capaces de hablar y cuya irritación al desconectarlos del aparato sorprende a sus padres. Desde pequeños “datificamos” crecientemente nuestra vida que se almacena en servidores para ser cribada una y otra vez en busca de las pepitas que permitan monetizarla. Más urgente se vuelve la respuesta si vemos programas educativos universalistas como el Ceibal de Uruguay que comenzaron (pese a las críticas) a utilizar Chromebooks y Google Apps: esta “práctica” es un enorme “datoducto” que almacena y analiza cada gesto digital de los pequeños uruguayos en su viaje hacia una adultez monitoreada (Aclaración: no son los únicos). Tan naturalizado está este proceso que el sistema educativo no logra detectarlo (o no le importa). Saber a qué edad los uruguayos se hacen hinchas de un equipo y conocer los detalles del proceso será pan comido con esos datos.
¿Y entonces?
Los algoritmos han aprendido a mantenernos en nuestra zona de confort, una droga contra la que no hay rehabilitación. El problema es que ese confort, por definición, no nos incomoda. ¿Cómo puede funcionar una sociedad donde cada uno simplemente acepta lo que es y se siente cómodo en ese lugar? Una respuesta es la exagerada (y mala) película Idiocracy. En esa sociedad infantilizada nadie se toma el trabajo de reflexionar más allá de lo que ya pensaba y se delegan las decisiones a las máquinas.
¿Cómo se hace para que los más jóvenes lean un libro completo y descubran el placer de la lectura si crecieron con juegos cuya curva de aprendizaje es cercana a cero? ¿Cómo favorecer contenidos que requieren concentración en la era de la interrupción? ¿Cómo transmitirles que no es lo mismo tocar la guitarra que usar Guitar Hero? El control “por confort”, por otro lado, no es un fenómeno nuevo y resulta un tópico frecuente en la crítica al capitalismo desde la música, la literatura, a las artes en general. Del otro lado la sociedad sigue viviendo algunos momentos puramente analógicos y despliega resistencias; pero, claro, son eso: resistencias permanentemente acosadas.
algoritmos_01_port
Una vez aplacada la indignación, las preguntas apocalípticas anteriores resultan algo paternalistas: ¿quién decide cómo o en qué deberían pensar los demás? ¿Cuáles son los insumos legítimos para la construcción de la subjetividad? ¿Solo la familia y la escuela? ¿No es egocéntrico creer que hay conocimientos más valiosos que otros? ¿Es cierto que el esfuerzo es la condición necesaria para acceder a una reflexión más compleja? O ¿Son mejores las reflexiones más complejas? Parecería una verdad evidente, pero… ¿por qué? En un contexto desjerarquizado, donde solo hay microrelatos, historias individuales chocando entre sí y captando nuestra atención durante escasos segundos resulta muy difícil justificar por qué “La guerra y la paz” es más rica (signifique lo que signifique) que una historia cualquiera en Instagram.
Mientras la reflexión se paraliza frente al tsunami digital, los datos aprenden a influir a la sociedad con creciente eficiencia desocultando también algunos de sus rasgos más preocupantes, haciéndola parecerse espantosamente a sí misma. ¿Y si simplemente los algoritmos nos estuvieran señalando la insoportable verdad de que somos como sociedad (aún) peores de lo que suponíamos?
Cultura digital
¿QUIÉN TOMA TUS DECISIONES?
Por Esteban Magnani Ilustración Sebastián Angresano
Se recomienda leer la nota completa en su fuente: Revista Anfibia
La historia de inventos exitosos que, tras una etapa de vacíos legales, deben ser regulados por sus efectos sociales es extensa. En la actualidad, un producto relativamente nuevo como las redes sociales y otras plataformas digitales omnipresentes y desreguladas han aprendido en poco más de una década a usar el mundo digital como gigantesco laboratorio de experimentación, un laboratorio financiado con miles de millones de dólares para dar con la(s) fórmula(s) mágica(s) que “atraparán” a los usuarios de internet.
La lista de ejemplos es larga: los algoritmos nos estudian, nos agarran de la mano y nos muestran el camino a seguir. Los de Netflix aprendieron algunos de nuestros comportamientos culturales y nos recomiendan películas que podrían interesarnos. Otros han comprendido que en general se prefieren juegos cuya curva de aprendizaje es de un par de segundos. ¿Años para a tocar el piano? No, para qué. Mejor chatear para controlar tiempos y mensajes que hablar cara a cara y sentir el costo de sabernos observados. La promesa capitalista de disfrutar sin interrupciones ni consecuencias es posible en el mundo perfecto del diseño digital. Los algoritmos nos simplifican la vida y nos ahorran “la pérdida” de tiempo de la duda. Gracias a su conocimiento de nosotros mismos, superior al propio, pueden ofrecernos un atajo para maximizar la felicidad potencial que se juega entre quiénes somos y las opciones que nos ofrece el mundo.
Pero detrás de la simulación de un poder benévolo que solo nos ayuda a elegir lo mejor para nosotros aparece el poder para empujar ciertas acciones: que compremos en determinado lugar, agreguemos otro producto a nuestra canasta de deseos, nos posicionemos frente a las noticias (¿nos gusta, nos sorprende, nos…?), trabajemos un ratito más o votemos por tal o cual candidato. ¿Cómo podrían las corporaciones no ceder a la tentación de llevar un poco más de agua a su molino? En el neoliberalismo perfecto del mundo digital las regulaciones prácticamente no existen y, para algunos, ya no podrán existir.
Es el capitalismo
En una interesante entrevista de Todo es Fake, uno de los podcasts de Revista Anfibia, la investigadora Sonya Song explicaba: “Lo cierto es que las redes sociales son un lugar donde la gente no piensa demasiado ni piensa de modo profundo. Estas personas pueden ser perfectamente inteligentes, resolver cálculos y otros problemas complicados, pero en las redes sociales no quieren comprometer su inteligencia en los posteos que ven”. Este tipo de relación con las redes sociales facilita la circulación de noticias falsas o recortes de la realidad que enfurecen o generan empatía, a los que comentamos o les damos like; nuestras reacciones emocionales refinan los algoritmos para mejorar aún más la eficiencia de los mensajes futuros. Para evitar este tipo de comportamiento se podría pedir a la gente que ratifique su comentario/like cinco minutos más tarde. También se podrían diseñar herramientas para estimular el diálogo y limitar las respuestas viscerales que parecen estar poniendo en peligro a la democracia, incluso a una ya desbalanceada por los medios de comunicación y el poder económico.
algoritmos_02_caja
El problema no es técnico. Las redes sociales pertenecen a empresas que viven de lo que actualmente se llama “Economía de la atención”. Diseñan plataformas que nos mantengan enganchados, consumiendo nuestro tiempo de atención allí dentro y produciendo contenidos para incentivar la atención de los otros. Si apuntar a nuestras emociones funciona, ¿por qué no explotarlo? No es necesario creer en el conspiracionismo; como titula un artículo de eldiario.es, “Nos son bots rusos, es Capitalismo 3.0 reventando el debate político online”. Toda la maquinaria de ese capitalismo 3.0 está en función de conseguir su objetivo de una manera que resulta explícita si uno rasca un poco la pintura de marketing ingenuo. La información para alcanzar el objetivo circula profusa: Google comparte una presentación sobre el uso del celular para que las empresas sepan cuándo atacar al cliente: el 68% de los usuarios chequea su celular antes de los 15 minutos de despertar, aumentó un 20% el número de sesiones desde smartphones, etc. El resultado es un bombardeo quirúrgico constante que amenaza la capacidad de controlar la propia vida.
Esa atención empaquetada, segmentada, se ofrece a los anunciantes para que mejoren sus ventas o a los políticos para que los voten. El objetivo, en ambos casos, es similar: la manipulación. Esta palabra es casi un anatema entre los cientistas sociales pero, pese a necesitar una reelaboración, debería ser devuelta al análisis. ¿Cómo llamar a los pequeños retoques en los algoritmos de Facebook para experimentar con los estados de ánimo proyectados en las redes o los “jueguitos” de UBER para que los choferes sientan la tentación de dar más vueltas y alcancen nuevos objetivos económicos (algo que en la jerga política del siglo XX se habría llamado “aumento de la tasa de autoexplotación”)?
Justin Rosenstein, el creador del botón de “like” de Facebook explicó en una entrevista que “nuestras mentes pueden ser secuestradas” y compara los “me gusta” de Facebook con chispazos de “pseudo-placer”. Hoy en día Rosenstein confiesa que usa control parental para regular su uso del celular, se autobloqueó de Snapchat y otras redes. La misma nota menciona estudios sobre una nueva atención “constantemente parcial” que seguramente sonará conocida a buena parte de los lectores para quienes dedicarse una hora a una tarea sin interrupciones (posiblemente autogeneradas) debe parecer un lujo de otro siglo. Un ex-desarrollador de Apple explicaba que nunca se propuso “enganchar” a la gente y que “no es inherentemente malo atraer a la gente hacia tu producto” y luego agrega: “es capitalismo”. Es cierto: el objetivo, al fin y al cabo, es el mismo que el de la televisión, la radio o el cine, es decir, comprender nuestros gustos para mantenernos atentos y vender publicidad. La diferencia es que ahora tienen muchos más datos para dirigir sus mensajes con precisión y que los medios digitales están (aún más) firmemente entretejidos en nuestra propia subjetividad que los medios anteriores. En la medida en que pasamos más tiempo en las redes alimentamos más a la bestia y le damos más espacios para llegar a nosotros. Fenómenos novedosos como la nomofobia dan indicios de hasta qué punto el celular y el usuario son parte de la misma cosa.
El coreano Byung Chul-Han lo explica así en su excelente libro Psicopolítica “Si el Big Data proporcionara un acceso al reino inconsciente de nuestras acciones e inclinaciones, sería pensable una psicopolítica que interviniera hasta en lo profundo de nuestra psique y la explotara […] La microfísica del Big Data haría visibles actomes, es decir, microacciones que escaparan a la conciencia. El Big Data podría poner de manifiesto patrones de comportamiento colectivos de los que el individuo no es consciente. De este modo se podría acceder al inconsciente colectivo”.
Sujeción
La forma en que nos construimos como sujetos ha consumido hectolitros de tinta y megavatios de pixeles iluminando pantallas. Desde Antonio Gramsci buscando comprender los mecanismos del sentido común y la hegemonía, pasando por la ideología en Louis Althusser, la disciplina de Michel Foucault o la más actual teoría de género de Judith Butler, la pregunta que horada la academia es ¿qué nos hace ser lo que somos?
La respuesta es que, evidentemente, el sujeto humano no surge de la nada. No hay sujeto sin sociedad. Los niños ferales que sobrevivieron se parecieron siempre a los animales que los adoptaron: no se transformaron en seres en estado de “pura esencia humana”. ¿Pero cómo actúa concretamente el proceso? El debate seguirá eternamente entre los sujetos que, desde adentro de la sujeción, intentan salirse del barro para mirar el fenómeno; la tarea es titánica porque están en el mismo lodo, todos manoseados.
¿Y si el Big Data en lugar de buscar la gran respuesta permitiera establecer las correlaciones puntuales con los “ladrillos” de la realidad con los que nos construimos? En “Todos mienten”, un muy interesante libro sobre el poder de los datos, el periodista y economista Seth Stephen-Davidowitz cuenta que es fanático desde pequeño de un equipo de béisbol de Nueva York, pero que su hermano carecía de interés por ese deporte. ¿Por qué? En busca de una posible respuesta, cruzó datos de los hinchas de cada equipo de beisbol con su nacimiento. Así encontró que el porcentaje de fans de un equipo crece significativamente en las generaciones que tenían cerca de ocho años cuando ese equipo ganó un campeonato. Si bien no pudo dar cuenta del caso particular de desinterés de su hermano, encontró una correlación interesante en los grandes números. ¿Por qué los niños de esa edad son más susceptibles al exitismo que acompaña el trofeo? Posiblemente la psicología podría buscar causalidad pero lo cierto es que, al menos según esta investigación, el fenómeno es estadísticamente significativo. Los niños de ocho tienden a elegir el equipo de su vida entre los exitosos y, ahora que lo sabemos, ¿por qué no explotar ese recurso para diseñar rasgos de nuevos sujetos?
algoritmos_03_col
Pedacito a pedacito, el Big Data permite comprender quiénes somos realmente y los procesos que nos construyen. ¿Será el Big Data capaz de articular un modelo de sujeción coherente incluso sin hipótesis? ¿Lograrán una demolición de la pregunta con la artillería de los datos? Este tipo de preguntas resulta aún más relevante (e incómoda) cuando vemos niños conectados a aparatos desde antes de ser capaces de hablar y cuya irritación al desconectarlos del aparato sorprende a sus padres. Desde pequeños “datificamos” crecientemente nuestra vida que se almacena en servidores para ser cribada una y otra vez en busca de las pepitas que permitan monetizarla. Más urgente se vuelve la respuesta si vemos programas educativos universalistas como el Ceibal de Uruguay que comenzaron (pese a las críticas) a utilizar Chromebooks y Google Apps: esta “práctica” es un enorme “datoducto” que almacena y analiza cada gesto digital de los pequeños uruguayos en su viaje hacia una adultez monitoreada (Aclaración: no son los únicos). Tan naturalizado está este proceso que el sistema educativo no logra detectarlo (o no le importa). Saber a qué edad los uruguayos se hacen hinchas de un equipo y conocer los detalles del proceso será pan comido con esos datos.
¿Y entonces?
Los algoritmos han aprendido a mantenernos en nuestra zona de confort, una droga contra la que no hay rehabilitación. El problema es que ese confort, por definición, no nos incomoda. ¿Cómo puede funcionar una sociedad donde cada uno simplemente acepta lo que es y se siente cómodo en ese lugar? Una respuesta es la exagerada (y mala) película Idiocracy. En esa sociedad infantilizada nadie se toma el trabajo de reflexionar más allá de lo que ya pensaba y se delegan las decisiones a las máquinas.
¿Cómo se hace para que los más jóvenes lean un libro completo y descubran el placer de la lectura si crecieron con juegos cuya curva de aprendizaje es cercana a cero? ¿Cómo favorecer contenidos que requieren concentración en la era de la interrupción? ¿Cómo transmitirles que no es lo mismo tocar la guitarra que usar Guitar Hero? El control “por confort”, por otro lado, no es un fenómeno nuevo y resulta un tópico frecuente en la crítica al capitalismo desde la música, la literatura, a las artes en general. Del otro lado la sociedad sigue viviendo algunos momentos puramente analógicos y despliega resistencias; pero, claro, son eso: resistencias permanentemente acosadas.
algoritmos_01_port
Una vez aplacada la indignación, las preguntas apocalípticas anteriores resultan algo paternalistas: ¿quién decide cómo o en qué deberían pensar los demás? ¿Cuáles son los insumos legítimos para la construcción de la subjetividad? ¿Solo la familia y la escuela? ¿No es egocéntrico creer que hay conocimientos más valiosos que otros? ¿Es cierto que el esfuerzo es la condición necesaria para acceder a una reflexión más compleja? O ¿Son mejores las reflexiones más complejas? Parecería una verdad evidente, pero… ¿por qué? En un contexto desjerarquizado, donde solo hay microrelatos, historias individuales chocando entre sí y captando nuestra atención durante escasos segundos resulta muy difícil justificar por qué “La guerra y la paz” es más rica (signifique lo que signifique) que una historia cualquiera en Instagram.
Mientras la reflexión se paraliza frente al tsunami digital, los datos aprenden a influir a la sociedad con creciente eficiencia desocultando también algunos de sus rasgos más preocupantes, haciéndola parecerse espantosamente a sí misma. ¿Y si simplemente los algoritmos nos estuvieran señalando la insoportable verdad de que somos como sociedad (aún) peores de lo que suponíamos?
Comentarios
Publicar un comentario