Neurociencia, bots y política: ¿interpretaciones complicadas o derechamente ingenuidad?



El sistema nervioso nos permite interactuar con el medio externo, del cual, recibimos información que luego se interpreta para generar una respuesta adecuada a algún determinado estímulo. Entre estas señales pueden incluirse los sonidos que provienen al escuchar una canción o leer el contenido de tu libro favorito; información que, luego de un complejo procesamiento neuronal, es respondida rememorando algún recuerdo o generando ciertas hormonas con efecto placentero, respectivamente. No obstante, algunas de estas señales pueden resultar confusas y ser interpretadas erróneamente, por ejemplo, al no identificar un billete falso o al observar una ilusión óptica. Del mismo modo, estas interpretaciones y los mecanismos de respuesta también podrían aplicarse cuando utilizamos las redes sociales, ya que relacionarnos con perfiles de usuarios es parte de la cotidianeidad en el ambiente virtual: hacemos click en la foto que nos gusta o retwitteamos opiniones que nos parecen relevantes (quizás digna de iniciar un debate online). Pero ¿podemos descifrar correctamente la información que proviene de la comunidad virtual? ¿Cómo sabemos quién realmente está detrás de las cuentas con las que interactuamos? La respuesta a esta última pregunta pareciera ser la obvia, es la persona de la fotografía en el avatar y su nombre es el asignado en el perfil. Algo parecido a un carnet virtual.

Sin embargo, junto con el avance de la tecnología, también se han desarrollado herramientas computacionales que interfieren en nuestra relación con los supuestos usuarios tras la pantalla, y son los llamados “bots”. Un bot se define como un conjunto de operaciones informáticas que utiliza programas computacionales para ejecutar tareas de forma automática o semiautomática. Si bien muchas veces nos beneficiamos de estas funciones, como cuando utilizamos motores de búsqueda (Google), existen variedades de bots creados con otros fines, por ejemplo, simular el comportamiento humano en las redes sociales. Dentro de estos últimos, se incluyen a los bots que suplantan la identidad de comunidades o de personajes políticos específicos, los que interactúan con usuarios reales, pudiendo, eventualmente, influir en su opinión. Algunos bots son tan avanzados que pueden llegar a registrar el comportamiento virtual de las personas, esto con el objetivo de “encontrar” el momento apropiado para la visualización de un determinado contenido y así lograr un mayor alcance e impacto.
En base a lo anteriormente expuesto, un grupo de investigación de la Universidad de Indiana Bloomington (USA), liderado por Harry Yaojun Yan, evaluó la capacidad humana para diferenciar bots políticos de usuarios humanos en Twitter. Con ese objetivo, diseñaron un estudio online en el que participaron 656 estadounidenses (37 años promedio), los cuales, inicialmente, completaron una encuesta sobre su conocimiento previo acerca de bots, el uso de redes sociales y, además, debían indicar su tendencia política. Luego de esto, procedieron a evaluar 20 cuentas existentes en Twitter. Sin embargo, estas 20 cuentas no fueron escogidas al azar por los investigadores, pues tomaron 28.558 cuentas que “seguían” en Twitter a los Congresistas (tanto Liberales como Republicanos) y las ingresaron a un programa llamado Botometer, el cual, les asignaba un puntaje (de 0 a 5) que determinaba la ambigüedad bot/humano. Si el puntaje asignado por Botometer a la cuenta de Twitter era más cercano a 0, entonces es altamente probable que sea de un usuario humano; mientras que, por otro lado, un puntaje cercano a 5 determina que la cuenta corresponde a un bot. En base a estos parámetros, los investigadores clasificaron y seleccionaron 5 cuentas que representaban bots de personajes liberales, otras 5 que se calificaron como bots de personajes republicanos. Además, se incluyeron 10 cuentas de usuarios humanos (5 de ideología política liberal y 5 republicana) que totalizaban los 20 perfiles a evaluar por los participantes.
Afinidad política con los “bots”
¿Qué resultados obtuvo el estudio? En primer lugar, se determinó que la gran mayoría de las 656 personas que participaron en la evaluación tenían un alto grado de autoconfianza, ya que creían ser capaces de diferenciar fácilmente cuentas de usuarios reales de otras automatizadas. Por otro lado, se identificó que el desempeño del reconocimiento de las cuentas dependía tanto de las características partidistas de éstas, como de las afiliaciones políticas de los evaluadores. Es decir, se encontró que la efectividad de un participante al identificar una cuenta (ya sea como bot o de usuario humano) tiene relación con la filosofía política de la persona que está realizando la evaluación. En este sentido, el estudio señaló que las personas que se identificaron en la encuesta inicial con una tendencia política republicana tienden a confundir cuentas bots conservadoras como si fueran usuarios humanos; mientras que, las personas que se identificaron con una ideología más liberal tienen una mayor probabilidad de confundir a cuentas de usuarios humanos conservadores como bots. Por tanto, y según este estudio, pareciera ser que la gente que sigue una filosofía política de derecha es más susceptible a la acción de perfiles bots en Twitter. Esto adquiere particular relevancia si se consideran las operaciones atribuidas a este tipo de cuentas automatizadas, en que, por ejemplo, se incluye la difusión de noticias falsas, la difamación de los contrincantes políticos o la generación de una impresión de popularidad y apoyo que no es real; condiciones que, según los investigadores, pueden exacerbar la polarización política de un país. En consecuencia, es probable que la irrupción de este tipo de cuentas en Twitter explote las percepciones sesgadas de las personas con diferentes identificaciones políticas o partidarias, enfrentándolas virtualmente en un clima político que puede estar ya agitado.
Ahora bien, de seguro mientras leen se estarán preguntando por qué ocurriría este fenómeno. El estudio plantea que los resultados obtenidos podrían ser explicados por dos teorías de la psicología: la del razonamiento motivado y la de identidad social. La primera hace referencia a la creencia personal que existe al emitir opiniones propias, las que se consideran “automáticamente válidas” por sobre cualquier otra, ignorando incluso información que demuestre lo contrario (sesgo cognitivo). Por otro lado, la teoría de identidad social se relaciona con el sentimiento de pertenencia a grupos, en el cual, los miembros de alguna categoría social maximizan las diferencias con individuos de otros grupos con la finalidad de promover una autoestima positiva. Las comparaciones realizadas por los miembros de un grupo con pensamientos afines pueden generar, por ejemplo, sentimientos de superioridad respecto a otro conjunto de personas. Además, la teoría de identidad social plantea que este sentimiento de pertenencia a grupos o categorías sociales se relaciona fuertemente con la formación de la identidad personal de un individuo.
Ante esta situación, sólo queda replantearnos la influencia que puede tener la información que recibimos de la comunidad virtual, cómo nos relacionamos con los miembros que la componen (sean humanos o bots) y los procesos mentales que subyacen a estas percepciones asimétricas, sobre todo considerando que se puede ver afectada nuestra interpretación de la realidad, haciéndonos aún más vulnerables a la manipulación. En este contexto y ante el bombardeo diario de información en el ciberespacio, urgen acciones de alfabetización en redes sociales que acompañen la regulación de las campañas políticas para evitar ser blanco de esta trampa digital.
Link al estudio: journals.sagepub.com
Este artículo surge del convenio con el Centro Interdisciplinario de Neurociencia de la Universidad de Valparaíso.



Source link

Related Posts

Add Comment