Ex empleados de Google y Facebook crean una organización para forzar cambios que frenen los excesos de las grandes compañías del sector y eviten los comportamientos adictivos de los usuarios
Fueron empleados de Google, Facebook o Twitter y ocuparon cargos relevantes. Alguno de ellos fue incluso asesor personal de Mark Zuckerberg. Explotaron; se dieron cuenta del daño que el mal uso de la tecnología está causando a la humanidad, de cómo las plataformas están estratégicamente diseñadas para generar adicción. El pasado febrero, ocho ex trabajadores de las más potentes tecnológicas de Silicon Valley lanzaron el Center for Humane Technology en San Francisco, una organización sin ánimo de lucro que persigue despertar a los usuarios sobre los efectos nocivos de la tecnología en su salud y presionar al Gobierno estadounidense para que endurezca las normas que regulan el sector. Su prioridad es introducir la ética en el diseño de la tecnología.
"La tecnología no es neutral y las consecuencias son obvias. Está cambiando el modo en que mantenemos conversaciones, nuestra forma de pensar y está causando estragos en nuestro sistema democrático", explica en una charla TED Tristan Harris, uno de los fundadores del proyecto que en 2016 dejó su puesto como diseñador ético en Google, donde estudiaba cómo modificar los productos para hacerlos menos intrusivos en la vida de los usuarios. Harris lanzó en ese momento la plataforma Time Well Spent (en español, tiempo bien empleado), ahora integrada en el nuevo proyecto. "Con las alertas, el móvil te dice en qué tienes que fijar la atención en cada momento. Tenemos que entender que pueden programar nuestra mente con pequeños pensamientos [en forma de alertas en la pantalla del móvil] que no hemos elegido", añade Harris, experto en técnicas de persuasión por la Universidad de Stanford.
Su gran aliado para poner en marcha el centro fue Roger McNamee, inversor de empresas tecnológicas y asesor personal de Zuckerberg durante varios años. En un postpublicado en la revista Washington Monthly, McNamee explica que en 2016 ya alertó al fundador de la red social del mal uso que se estaba haciendo de Facebook con la publicación de informaciones erróneas. Su última conversación fue en 2017, cuando ya existían evidencias, que más tarde se confirmaron, de que piratas informáticos rusos habían creado cuentas falsas para tratar de influir en la opinión pública a favor del entonces candidato republicano Donald Trump. Sus alertas no fueron tomadas en consideración y Zuckerberg le contestó que Facebook no era un medio de comunicación ni era responsable de las acciones de terceros. McNamee decidió que nunca volvería a estar dentro.
El Center for Humane Technology es una alianza sin precedentes de ex empleados de las tecnológicas más potentes. A Harris y McNamee se unieron Justin Rosenstein, creador del botón de Me gusta de Facebook; Lynn Fox, ex responsable de comunicación de Apple y Google, o Sandy Parakilas, director de operaciones en el departamento de privacidad de Facebook entre 2011 y 2012.
“Es muy complicado conseguir que la gente entienda por qué la tecnología genera daños”, cuenta Lynn Fox en conversación telefónica desde San Francisco. “La falta de control sobre las redes sociales tiene consecuencias graves, como el incremento de casos de depresión entre adolescentes o la difusión de trastornos alimenticios”, añade Fox, que durante más de 25 años ha trabajado en la industria. En los últimos meses se han reunido con Google, Apple o Facebook para mostrarles algunos de los documentos en los que están trabajando, como una guía ética para desarrolladores en la que incluirán datos estadísticos de los trastornos que provoca en la salud la adicción a la tecnología y alternativas para el diseño de los productos.
"Analizan los datos de los usuarios y los utilizan para predecir qué les hará reaccionar de forma más intensa. Los algoritmos dan ventaja a los mensajes negativos: el miedo y el odio producen más enganche
Sobre Facebook, el colectivo denuncia que su algoritmo está diseñado para maximizar la atención de los usuarios y las horas que dedican a la plataforma, tiempo que está directamente ligado a los beneficios que la tecnológica obtiene por publicidad. "Analizan los datos de los usuarios y los utilizan para predecir qué les hará reaccionar de forma más intensa. Los algoritmos dan ventaja a los mensajes negativos: el miedo y el odio producen más enganche", critica McNamee.
Sandy Parakilas, ex responsable de operaciones en Facebook, tiene identificado el problema fundamental de la red social. “El modelo de negocio se basa en hacer crecer el número de usuarios y las conexiones e interacciones entre ellos para, de esa forma, aumentar su base de datos”, explica por teléfono desde San Francisco. Cree que igual que hacen otras tecnológicas como Microsoft, Facebook podría comercializar su producto y no basar su facturación en la publicidad. “Microsoft Word es una herramienta por la que pagas; nadie está vendiendo tu atención a terceros, que es lo que hace Facebook”, opina Parakilas. “Para ofrecer una plataforma que responda a las necesidades de los usuarios tendrían que renunciar a parte de los ingresos, ser un poco menos rentables, y no van a pasar por ahí”.
De su estancia en Facebook durante más de un año, Parakilas critica que su departamento, encargado de asegurar que no se violara la privacidad de los usuarios con la inserción de publicidad en la plataforma, contaba con muy pocos recursos. “Me di cuenta de que proteger a los usuarios nunca sería una de las prioridades de la compañía; están centrados en el crecimiento económico y en estudiar fórmulas para atraer su atención”.
LA REACCIÓN DE ZUCKERBERG
"Uno de nuestros objetivos principales para 2018 es asegurarnos de que el tiempo que pasamos en Facebook sea un tiempo bien empleado", escribió el pasado enero Mark Zucerberg en un post. El fundador de la compañía se subía al carro del movimiento impulsado por el ex empleado de Google Tristan Harris bajo el nombre Time Well Spent, con el que denunciaba las prácticas abusivas de las tecnológicas y su estrategia para manipular la atención de los usuarios y multiplicar las horas de consumo de sus productos.
"Los amigos y la familia siempre han estado en el centro de la experiencia de Facebook. Las investigaciones demuestran que reforzar nuestras relaciones personales mejora nuestro bienestar y felicidad", aseguraba Zuckergerg en su post. La tecnológica anunció entonces un cambio en el algoritmo para dar prioridad a los contenidos publicados por amigos y familiares, de forma que en el muro de cada usuario apareciese menos contenido promocional. "El cambio llevará meses", adelantó Zuckerberg.
El efecto de la tecnología en los jóvenes ha estado en el centro del debate en Estados Unidos durante los últimos meses. El pasado enero, dos grandes inversores de Wall Streetpidieron a Apple que estudie los efectos de sus productos y diseñen herramientas más sencillas para el control parental sobre los iPhones y iPads, de forma que se pueda limitar el consumo que los niños hacen de esos dispositivos. Por otro lado, el pasado junio expertos en pediatría y salud mental hicieron un llamamiento a Facebook para que desactive un servicio de mensajería que la compañía activó en Estados Unidos para niños a partir de seis años.
Algunas tecnológicas ya han reconocido la magnitud del problema. Google anunció el pasado mayo en su conferencia anual de desarrolladores I/O el lanzamiento de la plataforma Digital Wellbeing (en español, bienestar digital), que incluye nuevas funcionalidades en Android para ayudar a los usuarios a controlar el tiempo que pasan en las diferentes Apps y activar alertas para tomar descansos. Tras reconocer que el 80% de los padres en Estados Unidos están preocupados por el consumo que sus hijos hacen de la tecnología -resultado de una de sus encuestas-, han reforzado su aplicación Family Link, que permite a las familias gestionar las appsque usan sus hijos, supervisar el tiempo que pasan delante de la pantalla o bloquear de forma remota su dispositivo.
Apple también anunció el pasado junio que a finales de este año lanzará una nueva aplicación, llamada Screen Time, que permitirá a los usuarios conocer cuánto tiempo dedican a cada app, cuántas notificaciones reciben de cada una de ellas, cuántas veces al día consultan el móvil o acceder a un informe de sus hábitos de uso comparados con los de la media. Igualmente, esa nueva herramienta permitirá a los padres acceder a los patrones de comportamiento de sus hijos y establecer límites en sus dispositivos móviles.
La presión del Center for Humane Technology se extiende al plano legislativo. En Massachusetts se han aliado con el senador demócrata Ed Markey para proponer al Congreso que el Instituto Nacional de Salud Infantil y Desarrollo Humano examine el rol y el impacto de los dispositivos electrónicos en el desarrollo de los niños. En California, junto al senador demócrata Bob Hertzberg, van a proponer la creación de una plataforma que identifique los bots (cuentas para la difusión masiva automatizada).
ANA TORRES MENÁRGUEZ 09/08/2018
https://elpais.com/tecnologia/2018/07/26/actualidad/1532614407_402741.html
No hay comentarios:
Publicar un comentario
Nota: solo los miembros de este blog pueden publicar comentarios.