Hay algo turbulento en la naturalidad con la que millones de personas entregan cada mañana, al abrir sus teléfonos, al desplazarse por un feed, al darle like a una foto. Fragmentos de su vida íntima a una corporación cuyo modelo de negocio se basa precisamente en convertir esos fragmentos en dinero. Meta, el conglomerado que engloba Facebook, Instagram y WhatsApp, ha construido uno de los imperios económicos más poderosos de la historia sobre un recurso que rara vez se menciona de manera clara: que los datos personales de sus usuarios son su materia prima, y que ese commodity no tiene precio porque es tomado desde el inicio como requisito para hacer parte de esas redes sociales.

Este ensayo parte sobre una tesis concreta: el patrón de conducta de Meta respecto a la privacidad de sus usuarios no constituye simplemente un problema legal o regulatorio, sino una crisis ética, que afecta derechos fundamentales y que las multas millonarias (por más récords que rompan), no han logrado detener sus prácticas. Para argumentarlo, se analizarán los casos más documentados de violaciones de datos protagonizados por esta compañía y se evaluará porqué el actual modelo sancionador resulta insuficiente para provocar un cambio real.


En mayo de 2023, la Unión Europea le impuso a Meta una multa de 1.200 millones de euros (equivalente a aproximadamente 1.300 millones de dólares), la más elevada registrada hasta entonces bajo el Reglamento General de Protección de Datos (RGPD). La razón de esto es que la empresa había estado transfiriendo de manera consecuente, repetitiva y continua los datos personales de millones de usuarios europeos de Facebook hacia servidores ubicados en Estados Unidos, sin garantizar el nivel de protección exigido por la normativa europea (Ziady, 2023). La junta Europea de Protección de datos fue clara en su diagnóstico: se trataba de una infracción grave.

La reacción de Meta fue previsible, anunció que apelaría al fallo y acusó a los reguladores de formar un precedente peligroso para el ecosistema digital. Nada que no se haya visto antes, porque esta no fue una excepción sino la continuación de un patrón. En septiembre de 2022, la Comisión de Protección de Datos de Irlanda ya había multado a Instagram (red social filial de Meta) con 405 millones de euros por no proteger adecuadamente los datos de menores de edad. La investigación, que arrancó en 2020, reveló que adolescentes de entre 13 y 17 años podían operar cuentas comerciales con sus números de teléfono y correos electrónicos expuestos públicamente (Reuters, 2022). Es decir, la empresa no solo falló en proteger la privacidad de adultos, falló en proteger a niños.

A esto se suma la condena de noviembre de 2025, cuando un tribunal español ordenó a Meta pagar 542 millones de euros a medios de comunicación del país por prácticas de competencia desleal relacionadas con la ocupación de contenidos y datos (Petit, 2025). El historial de sanciones aumenta y, sin embargo, la empresa sigue operando con la misma lógica. Cabe preguntarse: ¿a qué tipo de empresa se le impone la multa más grande de la historia en materia de privacidad y simplemente sigue adelante?

Hay una tendencia a enmarcar las violaciones de datos de Meta como fallas técnicas o descuidos administrativos. No lo son. Son el resultado predecible de un modelo de negocio que trata la información personal como recurso explotable. Oña y colaboradores (2025) advierten:

Desde redes sociales hasta plataformas de comercio electrónico, los datos que compartimos a diario pueden ser recopilados, analizados y utilizados con fines comerciales, políticos y sociales.  Esta nueva realidad ha puesto de manifiesto la vulnerabilidad de los individuos frente a abusos, fraudes y violaciones de su privacidad (p. 39).

Ellos reconocen que la información personal se ha convertido en uno de los recursos más valiosos de la economía contemporánea, lo que genera una tensión profunda entre la innovación tecnológica y la protección de derechos fundamentales. Esa presión no es neutral, tiene ganadores y perdedores. Y los usuarios, en el esquema de Meta, casi siempre están del lado equivocado.

En 2024, Meta anunció que comenzaría a utilizar los datos de sus plataformas para entrenar modelos de inteligencia artificial. La polémica fue inmediata, y con razón. ¿En qué momento los usuarios dieron su consentimiento para que sus fotos, mensajes, interacciones y búsquedas fueran utilizados como insumos para desarrollar sistemas de IA que luego Meta comercializaría? La respuesta corta que dieron fue que estaba en la letra pequeña, en esa que nadie lee (Rodríguez, 2024). Este es uno de los problemas que Guaña-Moya y Chipuxi-Fajardo (2023) señalan en su investigación sobre inteligencia artificial, ética y privacidad, ellos advierten: "Es necesario establecer salvaguardias éticas y legales para garantizar que la inteligencia artifical no perpetúe sesgos o discriminación" (p. 928). Esto porque el avance acelerado de las tecnologías que procesan datos ha superado la capacidad de las normativas para regularlos, generando vacíos legales que las grandes plataformas aprovechan.

Esta cuestión de fondo es filosófica antes que jurídica, ¿quién es el propietario de los datos que un usuario genera en una plataforma digital? Meta actúa como si la respuesta fuera obvia; ella misma. Pero esa respuesta no es éticamente sostenible. Los datos personales no son recursos naturales que existen independientemente de las personas; son extensiones de nuestra identidad, nuestra vida emocional, nuestras relaciones y las decisiones de seres humanos concretos. Tratarlos como mercancía sin consentimiento informativo es en el mejor de los casos, una forma de explotación; en el peor, una violación sistemática de la autonomía y la dignidad.

En octubre de 2024, el Tribunal de Justicia de la Unión Europea (TJUE) emitió un fallo contundente en el caso Schrems contra Meta: la compañía debe minimizar el uso de datos personales para publicidad y no puede usar indefinidamente la totalidad de la información acumulada durante décadas sobre sus usuarios (NOYB, 2024). El principio de minimización de datos, consagrado en el RGPD, establece que el tratamiento debe limitarse a lo estrictamente necesario para la finalidad declarativa. Meta, según el tribunal, lo había ignorado de forma sistemática.

Lo que nos revela este caso es particularmente intranquilizante, Meta lleva dos décadas construyendo perfiles exhaustivos de usuarios, acumulando datos que van desde preferencias de consumo hasta orientación sexual, pasando por estados emocionales inferidos a través del comportamiento en la plataforma. Que esto haya ocurrido durante tanto tiempo a semejante escala, con tan escasa resistencia efectiva, habla no solo de las fallas del sistema que las regula sino de una cultura corporativa que ha normalizado la extracción masiva de información personal como si fuera un derecho adquirido.

Oña y colaboradores (2025) señalan uno de los desafíos más urgentes de la protección de datos en la actualidad:

Las diferencias culturales y las percepciones sobre la privacidad pueden influir en la forma en que se manejan los datos en diferentes regiones. La falta de un enfoque coordinado a nivel internacional dificulta la creación de un marco regulador uniforme que proteja adecuadamente a los individuos en un entorno globalizado (p. 42).

Los autores nos hacen caer en cuenta que la falta de armonización global en la regulación, permite que empresas con presencia internacional operen en zonas grises entre jurisdicciones. Meta ha sabido aprovechar esas zonas grises con maestría. El hecho de que su sede europea estuviera en Irlanda (un país con reguladores históricamente más laxos) fue, durante años, una ventaja táctica. Fue necesario el activismo jurídico de personas como Max Schrems y organizaciones como NOYB para forzar una revisión más rigurosa.

Podría argumentarse que el sistema está funcionando porque los tribunales están sancionando, las multas aumentan, la presión regulatoria crece. Pero hay algo que esto no logra explicar, Meta sigue haciendo lo mismo. No es que la empresa haya cometido un error y hubiera pagado por él, lo que podemos ver es que ha cometido el mismo tipo de error repetidamente durante años, en distintas jurisdicciones, bajo distintas formas. Eso no es un descuido, eso es estrategia.

Si los beneficios de explotar datos personales superan el costo de las multas, la violación se convierte en un gasto operativo más. Una multa de 1.300 millones de dólares es devastadora para cualquier empresa mediana, pero para Meta, que factura decenas de miles de millones al año, es algo manejable. Guaña-Moya y Chipuxi-Fajardo (2023) nos comunican a través de su trabajo: “Es necesario garantizar que los sistemas de inteligencia artificial respeten los derechos individuales, y cumplan con las regulaciones y normativas vigentes en materia de protección de datos” (p. 927). De esta manera estos autores nos hablan sobre que, sin mecanismos de control proporcionales al poder real de las plataformas tecnológicas, las sanciones económicas tienen un efecto disuasorio limitado. No pretendo sonar alarmista, esto está documentado en el comportamiento histórico de la compañía.

Lo que haría falta, entonces, no son multas más grandes sino intervenciones estructurales, restricciones reales al modelo de publicidad basado en vigilancia, obligaciones de transparencia algorítmica, derechos de acceso efectivos para los usuarios, y (bajo mi perspectiva) cuestionamientos serios sobre si el monopolio de datos que poseen estas empresas es compatible con una democracia sana. Oña y colaboradores (2025) apuntan en esa dirección al proponer que la respuesta a los retos de la protección de datos debe combinar marcos legales robustos con educación en privacidad y adopción de tecnologías que refuercen la soberanía del usuario sobre su propia información.

Una de las narrativas que Meta y sus defensores repiten con frecuencia es que los usuarios tienen opciones como: leer los términos y condiciones del servicio, pueden configurar su privacidad, pueden incluso abandonar la plataforma. Esta narrativa es cínica en varios aspectos. Primero, porque el diseño de las plataformas está deliberadamente orientado a desincentivar la configuración de privacidad restrictiva. Segundo, porque en muchos contextos sociales y laborales abandonar Facebook, Instagram o WhatsApp tiene costos reales que los usuarios no deberían tener que asumir para proteger sus derechos fundamentales. Tercero, y más importante, la privacidad no es una preferencia del consumidor, es un derecho.

Si lo examinamos desde la ética, la distinción importa enormemente. Los derechos no se negocian en mercados ni se intercambian por servicios gratuitos. Que Meta haya construido un modelo de negocio que en la práctica condiciona el acceso a herramientas de comunicación masiva a la renuncia implícita a la privacidad es, en sí mismo, una forma de coerción que nuestra sociedad no puede normalizar. Guaña-Moya y Chipuxi-Fajardo (2023) lo expresan con claridad al plantear lo siguiente: “La recopilación masiva de datos y su análisis automatizado plantean preguntas en relación con el consentimiento informado, la anonimización de los datos y la posibilidad de discriminación algorítmica” (p. 924). Tocan la autonomía de las personas, su capacidad de tomar decisiones libres e informadas, y su derecho a no ser reducidas a perfiles algorítmicos.

El caso de los menores de edad ilustra esto con especial crudeza. Que Meta haya expuesto los datos de contacto de adolescentes por descuido o negligencia no es simplemente un error corporativo, es una falla moral frente a una población que no tiene la capacidad de evaluar completamente las consecuencias de su exposición digital. Las empresas que manejan datos de menores tienen una responsabilidad ética, y que el conglomerado corrigiera esa práctica dice todo lo que hay que saber sobre las prioridades reales de la compañía.


 Conclusión

Todo lo anterior nos lleva a comprender que Meta no es una empresa que haya cometido errores aislados en materia de la privacidad con sus usuarios. Es una empresa cuyo modelo de negocios genera condiciones para que esos errores, o más bien, esas decisiones ocurran. La acumulación de multas récord, sentencias judiciales y resoluciones, por más grandes que sean, no atacan el núcleo del problema, el cual es la arquitectura misma de extracción de datos en la que se basa la rentabilidad de la compañía.

Frente a este panorama, no basta con endurecer las multas. Hace falta repensar la relación entre las plataformas digitales y los datos de las personas que las usan. Eso implica reconocer que la privacidad es un derecho no negociable, que el consentimiento informado debe ser genuino y no una formalidad enterrada en páginas de condiciones imposibles de leer, y que las empresas que lucran con información personal tienen una deuda ética con los individuos cuyas vidas (parcialmente) las alimentan.

El futuro digital que valga la pena vivir no será aquel en el que las corporaciones aprendan a eludir regulaciones con mayor sofisticación, sino aquel en el que los derechos de las personas no estén sujetos a los términos de servicio de ninguna empresa. Eso requiere voluntad política, marcos normativos globales y, sobre todo, la decisión colectiva de no seguir aceptando que la comodidad que nos ofrece la tecnología tenga como precio la entrega silenciosa de lo más íntimo que tenemos.

 Referencias

Oswaldo Oña Oña, O., Parrales Reyes, L., Vera Celi, M., & Zhigue López, F. (2025). La protección de datos personales en la era digital - Retos y oportunidades. Revistalexenlace, 2(1), 38-45. https://www.revistalexenlace.com/index.php/ojs/article/view/5

Guaña-Moya, J., & Chipuxi-Fajardo, L. (2023). Impacto de la inteligencia artificial en la ética y la privacidad de los datos. RECIAMUC, 7(1), 923-930. https://www.reciamuc.com/index.php/RECIAMUC/article/view/1135

Petit, Q. (20 de noviembre de 2025). Meta, condenada a pagar 542 millones de euros a medios españoles por competencia desleal. El País. https://elpais.com/comunicacion/2025-11-20/meta-condenada-a-pagar-542-millones-de-euros-a-medios-espanoles-por-competencia-desleal.html

Rodríguez, J. (28 de mayo de 2024). Polémica: Meta usaría datos de sus usuarios para entrenar a su inteligencia artificial. Portafolio. https://www.portafolio.co/tecnologia/polemica-por-anuncio-de-meta-sobre-el-uso-de-datos-para-entrenar-a-su-ia-605641

Online & Mobile Trackinng. (4 de octubre de 2024). TJUE: Meta debe "minimizar" el uso de datos personales para anuncios. NOYB. https://noyb.eu/es/cjeu-meta-must-minimise-use-personal-data-ads-0

Ziady, H. (22 de mayo de 2023). Meta recibe una multa récord de US$ 1.300 millones en la Unión Europea por violación de privacidad de datos. CNN. https://cnnespanol.cnn.com/2023/05/22/union-europea-multa-meta-violar-privacidad-datos-trax

Reuters. (6 de septiembre de 2022). Imponen multa a Instagram de más de US$ 400 millones por no proteger datos de menores. CNN. https://cnnespanol.cnn.com/2022/09/06/instagram-multa-datos-menores-irlanda-reux