La empresa tecnológica Meta fue demandada por más de 40 estados norteamericanos, acusada de utilizar conscientemente funciones en Instagram y Facebook para "captar" adolescentes y niños a sus plataformas consideradas como “adictivas” y “dañinas”, incluso cuando la compañía afirmó que sus sitios eran seguros.

Los estados de Colorado, Tennessee y Massachusetts encabezaron una acción legal conjunta presentada por 33 estados en un tribunal federal del Distrito Norte de California, mientras que otros fiscales generales de Washington D.C. y ocho estados están presentando denuncias separadas en tribunales federales, estatales o locales.

La denuncia

Los denunciantes señalaron que Meta –propietaria de Facebook, Instagram, WhatsApp y Messenger– violó las leyes de protección al consumidor al “engañar” a niños usuarios sobre la seguridad de sus plataformas y apuntaron que sus algoritmos fueron diseñados para empujar a los más jóvenes a “madrigueras de contenido tóxico y dañino”, utilizando funciones como “desplazamiento infinito” y alertas persistentes.

"Meta se ha aprovechado de tecnologías poderosas y sin precedentes para atraer, involucrar y atrapar a jóvenes y adolescentes con motivo de su propio beneficio", detallaron los estados en su demanda. En este sentido, explicitan que su objetivo es frenar el impacto de las redes sociales en la salud mental de los menores, obligando a Meta a cambiar las características de sus plataformas por las consecuencias que presentan.

En una conferencia de prensa virtual conjunta, varios fiscales generales destacaron que la adicción a estas redes sociales es un "problema nacional" y que, pese a la división política entre republicanos y demócratas, fueron capaces de trabajar juntos en esta cuestión, que compararon con la lucha contra el tabaco o el opio.

La mirada del fiscal

El fiscal general de Tennessee, Jonathan Skrmetti, indicó que Instagram ha dirigido su aplicación a adolescentes y niños, los cuales "son más vulnerables y más susceptibles a este tipo de manipulación".

El antecedente de este conflicto data de septiembre del 2021 cuando Frances Haugen, una ex empleada de Facebook, filtró una investigación interna que indicaba que la empresa sabía que sus plataformas presentaban riesgos para la salud mental de los jóvenes y obligó a dar marcha atrás a la creación de “Instagram Kids”, una versión de la aplicación dirigida a usuarios menores de 13 años.

Ese año, The Wall Street Journal expuso en un reportaje, cómo Instagram empeoraba la percepción de niños y adolescentes sobre sus cuerpos, y señaló que la compañía era consciente de este problema. "Meta sabía que existían estos problemas de salud mental y que Instagram los estaba empeorando. Y en lugar de hacer cambios, la empresa buscó cada vez más participación de los niños", apuntó el fiscal Skrmetti.

Rob Bonta, fiscal general de California, expresó que "hay una montaña de pruebas que muestran que si los niños pasan más tiempo en las redes sociales, eso tiende a correlacionarse con la depresión, la ansiedad y problemas de imagen corporal". A su vez evidenció que Mark Zuckerberg, director ejecutivo de la compañía, mintió al decir que Meta no diseñaba sus productos para que sean adictivos cuando testificó ante el Congreso.

Meta se defiende

Desde Meta expresaron que la empresa quiere dar a los adolescentes una experiencia en línea segura y positiva, según difundió su portavoz, Nkechi Nneji, en un comunicado. "Estamos decepcionados de que los fiscales generales hayan elegido este camino en lugar de trabajar productivamente con empresas de toda la industria para crear estándares claros y apropiados para la edad en las muchas aplicaciones que usan los adolescentes", puntualizó la vocera.

Una vez que la investigación se hizo de público conocimiento en 2021, algunos estados como Arkansas y Utah han dictado leyes que prohíben el acceso de los niños menores de 13 años a las redes y exigen que los adolescentes menores de 18 años obtengan el consentimiento de sus padres para ingresar a los sitios. Por su parte, la legislación de California exigió por ley que las tecnológicas examinen sus plataformas en busca de posibles riesgos y problemas.