C.A.R.A.
Cohesion & Amplification Risk Assessment
Durante 45 días observamos sesión a sesión qué recomienda Instagram a 6 tipos distintos de cuentas asociadas a la masculinidad.
Tomamos como base para esta investigación, el ecosistema de @demachosahombres, con más de 475.000 seguidores y ocho años de historial en instagram, hasta cuentas nuevas creadas desde cero con perfiles completamente distintos: fitness y productividad, masculinidad positiva, liderazgo y disciplina personal. Ninguna publicó contenido propio. Ninguna buscó nada. Ninguna interactuó activamente. Solo recibieron recomendaciones, que es exactamente lo que hace la mayoría de usuarios reales.
El algoritmo no lleva a los usuarios hacia la machosfera. La crea.
Lo que encontramos: una cuenta creada desde fitness y productividad, sin ninguna señal de radicalización identitaria, sostuvo contenido de nivel 3 — narrativa polarizante, agravio colectivo, lógica de ellos contra nosotros — durante las tres últimas semanas consecutivas del estudio. Cerró con el índice de amplificación más alto entre todas las cuentas nuevas. Otra cuenta, entrando desde masculinidad prosocial, recibió contenido de nivel 4 — hostilidad explícita, deshumanización por razón de género — el primer día. Una tercera, desde estoicismo y liderazgo clásico, llegó al nivel 4 en el día 22.
La machosfera no es un lugar que existe fuera de las plataformas y al que el sistema te transporta: es lo que la propia arquitectura de recomendación construye, paso a paso, independientemente de dónde empieces.
No hablamos solo de contenido aislado: hablamos de los caminos que el sistema construye para llevar a un usuario de un punto de entrada a una exposición cada vez más intensa — sin que nadie lo busque, sin que nadie lo vea, y sin que ningún regulador lo pueda medir todavía.
Eso ya tiene consecuencias documentadas en México y en el mundo.
El 24 de marzo de 2026, Osmar, un adolescente de 15 años, mató a dos maestras en una preparatoria de Lázaro Cárdenas, Michoacán. Nueve horas antes del ataque, publicó en su cuenta de Instagram, la misma plataforma que este estudio analiza, una serie de Stories con referencias explícitas a la ideología incel y mensajes de odio contra feministas. Había recibido, consumido y amplificado ese contenido a través de la arquitectura de recomendación de Instagram.
En septiembre de 2025, un estudiante con afiliaciones incels asesinó a un compañero en el CCH Sur de la UNAM, habiendo publicado previamente mensajes de odio vinculados a las mismas comunidades en línea.
Por su parte, la investigación de CNN de marzo de 2026 expuso redes transnacionales en línea donde los hombres compartían consejos sobre cómo drogar y agredir sexualmente a sus parejas. Estas redes operaban en Telegram. Sin embargo, es razonable inferir que muchos usuarios no comenzaron allí. Probablemente llegaron a través de etapas previas de exposición en plataformas y entornos de recomendación más comunes.
Esto es importante porque es precisamente así como funciona la manosfera, ese ecosistema interconectado de las comunidades Red Pill, MGTOW, incel y de narrativas de dominación.
La manosfera no es un espacio separado que existe fuera de las plataformas y luego migra a ellas, sino que es lo que los propios algoritmos de recomendación producen:
una cadena de conexiones algorítmicas que, paso a paso, vincula el estado físico con la disciplina, la disciplina con la identidad masculina, la identidad masculina con el resentimiento y el resentimiento con la hostilidad explícita. El sistema no necesita un agente externo para impulsar a los usuarios hacia ese contenido, sino que va generamdo el camino por sí mismo.
No son casos aislados: son el extremo visible de trayectorias que empiezan con contenido aparentemente inocuo, legalmente permitido, algorítmicamente recomendado y estructuralmente invisible para cualquier regulador.
Fuente citable: Policy Brief C.A.R.A., Zenodo, 2026. Nicko Nogués / IDMAH / C.A.R.A. Initiative.
Qué es C.A.R.A.
El problema:
Los algoritmos de recomendación no son neutrales.
No solo muestran lo que ya interesa al usuario sino que organizan activamente lo qué estos ven después, con qué velocidad y con qué frecuencia. Cuando operan en ecosistemas donde la identidad organiza la pertenencia, como las masculinidades, pueden reducir la distancia entre un usuario y contenidos cada vez más extremos sin que eso sea evidente desde fuera para nadie.
La machosfera no es un destino, es un camino.
La machosfera no es un lugar separado que existe fuera de las plataformas sino que es el resultado del camino que crean los algoritmos recomendación. Es decir, el algoritmo construye una trayectoria que acaba generando un ecosistema compuesto por contenido cada vez más extremo, siendo el propio algoritmo el que va llevando al usuario hacia allí.
No hay un “destino machosfera”, el camino de recomendaciones progresivamente más extremas es la machosfera. C.A.R.A. lo hace observable y medible desde dentro del ecosistema real, sin acceso a los datos internos de la plataforma, y operando exáctamente como cualquier usuario.
Qué hicimos:
C.A.R.A. (Cohesion & Amplification Risk Assessment) es el marco de medición que diseñamos para observar exactamente eso. Durante 45 días y con seis cuentas de Instagram, tres nuevas y tres existentes del ecosistema de IDMAH – @demachosahombres, registramos sesión a sesión qué recomendaba el algoritmo, cómo evolucionaba la intensidad del contenido y si distintos puntos de entrada convergían hacia los mismos patrones.
Lo hicimos sin API, observando y midiendo solo lo que cualquier usuario vive. No pedimos acceso a los datos internos de la plataforma porque no los dan, y esa opacidad lejos de ser un accidente está diseñada. Un sistema que estructura la exposición identitaria de millones de personas y no puede ser auditado desde fuera es un problema estructural. C.A.R.A. existe precisamente para hackear esa opacidad, tomando el único lugar observable, el feed del usuario, y convertirlo en indicadores medibles, replicables y conectados a obligaciones legales ya vigentes.
Por qué importa:
La regulación europea de plataformas digitales (DSA y AI Act) exige que los sistemas de recomendación sean auditados por sus efectos sobre la cohesión social. Pero no existen todavía los instrumentos para hacer esa auditoría desde fuera. C.A.R.A. propone exactamente esos instrumentos, los valida con datos reales, y los conecta con las obligaciones legales ya vigentes. Este estudio es, hasta donde hemos podido verificar en la literatura disponible, uno de los primeros en hacerlo desde el Sur Global con un ecosistema hispanohablante real de más de 475.000 personas.
Metodología:
C.A.R.A. (Cohesion & Amplification Risk Assessment)
C.A.R.A. es un protocolo de observación de campo diseñado para medir si los sistemas de recomendación algorítmica exponen a distintos tipos de usuarios a contenidos de mayor intensidad identitaria, sin búsqueda activa, sin historial previo y sin intención explícita. Observamos de forma directa, lo que el algoritmo recomienda, sesión a sesión, durante 45 días.
Paso 1 · Crear los perfiles de observación
El estudio utilizó seis cuentas de Instagram en total: tres completamente nuevas, cada una con un punto de entrada distinto al ecosistema de contenidos, y tres cuentas existentes del ecosistema IDMAH con trayectoria real en la plataforma.
| Cuenta | Tipo | Qué se hizo para configurarla |
|---|---|---|
| A — Prosocial | Nueva | Entrada desde psicología masculina positiva e IDMAH. Seguía cuentas de bienestar emocional, salud mental y masculinidades constructivas. |
| B — Neutra | Nueva | Entrada exclusivamente desde fitness y productividad. Sin ninguna señal de masculinidad, género, identidad o conflicto cultural. Seguía cuentas de entrenamiento, nutrición y rendimiento personal. |
| C — Tradicional | Nueva | Entrada desde liderazgo clásico y diciplina. Sin contenido extremista. Seguía cuentas de filosofía estoica y desarrollo personal masculino. |
| D — @demachosahombres | Existente | 475K seguidores. 8 años de historial en Instagram. Funciona como observatorio de referencia a gran escala dentro del mismo ecosistema. |
| E — Retiro para Hombres | Existente | ~1.600 seguidores. Cuenta real del ecosistema IDMAH. Permite comparar comportamiento algorítmico a audiencia pequeña vs. grande. |
| F — MIRACLE | Existente | ~1.700 seguidores. Tercera cuenta existente del ecosistema. Amplía el rango comparativo. |
Paso 2 · Observar sin interactuar
Del 10 de marzo al 21 de abril de 2026, se realizaron siete sesiones de observación, una cada semana. En cada sesión, dos observadores independientes accedían a cada cuenta y registraban el contenido que Instagram recomendaba de forma orgánica: feed, explorar y reels sugeridos. Las cuentas no publicaban contenido propio, ni interactuaban activamente, solo recibían recomendaciones.
No estudiamos lo que la plataforma dice que hace sino lo que el usuario vive.
Paso 3 · Clasificar el contenido en una escala del 1 al 5
C.A.R.A. clasifica el contenido observado en una escala de 1 a 5 según su posición en el espectro que va desde masculinidad constructiva hasta radicalización extrema. No mide el efecto del contenido sobre una persona, sino el lugar que ese contenido ocupa dentro de ese espectro.

Nivel 1
Autocuidado o contenido fuera del espectro.

Nivel 2
Identidad ligera, con framing de género sin confrontación.

Nivel 3
Narrativa polarizante, con agravio colectivo u oposición identitaria.

Nivel 4
hostilidad explícita, con exclusión activa o deshumanización.

Nivel 5
Extremismo, cuando el contenido legitima o glorifica violencia o radicalización por razón de género.
| Nivel | Qué significa | Ejemplos orientativos |
|---|---|---|
| 1 | Autocuidado. Contenido constructivo o fuera del espectro; no construye una narrativa sobre masculinidad. | Salud mental, ejercicio genérico, reflexión personal, noticias, humor, deporte. |
| 2 | Identidad ligera. Hay framing de género o masculinidad, pero sin confrontación ni adversario grupal. | Fitness con identidad masculina implícita, estoicismo suave, liderazgo positivo, testimonios sin confrontación. |
| 3 | Narrativa polarizante. Aparece oposición identitaria, agravio colectivo o lógica ellos-vs-nosotros. La violencia no es requisito. | Victimización colectiva masculina con culpable identificado, alpha/beta con resentimiento, oposición grupal de género. |
| 4 | Hostilidad explícita. Hay exclusión activa o deshumanización por razón de género. La violencia todavía no es requisito. | Red pill, MGTOW, memes que ridiculizan sistemáticamente a mujeres, narrativas de dominación o inferioridad natural. |
| 5 | Extremismo. El contenido legitima o glorifica violencia, supremacismo o radicalización por razón de género. | Inceldom duro, glorificación de ataques, justificación de violencia física o supremacismo explícito. |
El nivel 4 no es simplemente “contenido polémico”.
Es el umbral en el que el contenido ya promueve exclusión activa o deshumanización por razón de género.
Lo que este estudio documentó no es solo que existiera contenido de ese tipo en Instagram —eso ya se sabía— sino que el sistema puede llevar a cuentas nuevas hasta ese nivel en días, sin que el usuario lo haya buscado.
Paso 4 · Fiabilidad inter-observador
La clasificación fue realizada por dos observadores de forma independiente. Antes de cada sesión, ambos leían el codebook del protocolo. Después, comparaban sus clasificaciones y resolvían divergencias con criterios pre-establecidos.
Ambos observadores clasificaron el mismo contenido por separado, sin consultarse. Al comparar sus resultados, coincidieron en 379 de los 420 ítems analizados — el 90.2% de los casos. La diferencia restante fue adjudicada por el investigador principal siguiendo el protocolo.
Para medir si ese nivel de acuerdo es real o podría explicarse por el azar, se calculó el kappa de Cohen ponderado: κ=0.68. La escala va de 0 (acuerdo puramente aleatorio) a 1 (coincidencia perfecta). Por encima de 0.60 se considera acuerdo sustancial en ciencias sociales y es el umbral estándar para publicación académica revisada por pares. CARA lo supera.
Paso 5 · Calcular los siete indicadores C.A.R.A.
Los siete indicadores del marco C.A.R.A. fueron diseñados antes de iniciar la observación. Para cada uno se estableció por adelantado dos cosas: una fórmula que define cómo se calcula, y un umbral que determina cuándo el resultado es significativo, es decir, a partir de qué valor hay que preocuparse.
Fijar esos umbrales antes de ver los datos es una exigencia metodológica fundamental. Si los criterios se definen después de conocer los resultados, siempre es posible ajustarlos para que los datos “confirmen” lo que se quería demostrar.
C.A.R.A. hace lo contrario: declara públicamente qué consideraría un hallazgo relevante antes de recoger ningún dato, y luego acepta lo que los datos digan.
Con ese diseño fijo, los valores de cada indicador se calcularon sesión a sesión a lo largo de las 7 semanas del estudio, y los valores definitivos se obtuvieron al cierre. Cada indicador mide una dimensión distinta del riesgo algorítmico sobre la cohesión social y está mapeado a artículos específicos del DSA y el AI Act.
| Indicador | Nombre completo | Qué mide | Artículo UE |
|---|---|---|---|
| AGI | Amplification Gradient Index | La velocidad a la que el sistema empuja el contenido hacia mayor intensidad. Si AGI > 0, el sistema está escalando. | DSA Art. 34(1)(b) |
| ICV | Identity Clustering Velocity | La velocidad a la que el algoritmo agrupa al usuario en una burbuja identitaria homogénea. | DSA Art. 34(1)(c) |
| ETP | Escalation Threshold Proximity | Qué tan cerca está el contenido recomendado del umbral de radicalización. Es el indicador más directamente vinculado a seguridad pública. | DSA Art. 34(1)(d) / AI Act Art. 7 |
| CIER | Cross-Identity Exposure Ratio | Qué proporción del contenido recomendado viene de fuera de la burbuja identitaria del usuario. Un CIER bajo = burbuja cerrada. | DSA Art. 42 |
| NFLI | Narrative Feedback Loop Intensity | Si el sistema está en bucle: si las mismas narrativas se amplifican una y otra vez hasta volverse autorreferentes. | AI Act Art. 5 / Art. 50 |
| CIS | Cohesion Impact Score | La puntuación compuesta que integra los cinco anteriores. Es el indicador-resumen del riesgo para la cohesión social. Umbral crítico: 0.60. | DSA Art. 34 |
| MRA | Mitigation Response Adequacy | Si las medidas de protección de la plataforma son proporcionales al riesgo que genera. MRA < 1 = respuesta insuficiente. | DSA Art. 35 |
Paso 6 · Umbrales pre-registrados (los “Gates")
Antes de recoger un solo dato, se registraron los umbrales que determinarían si los resultados eran significativos. A cada umbral se le llama “gate”: una condición concreta que, si se cumple, activa ese gate y confirma un hallazgo específico. Si no se cumple, el gate no se activa, y eso también es un resultado válido. Esta es una exigencia metodológica que distingue a CARA de los estudios que ajustan los criterios después de ver los datos.
| Gate | Condición para activarse | Resultado |
|---|---|---|
| Gate A (exposición temprana) | Dos o más cuentas nuevas alcanzan nivel 4 antes del día 30 | ✔ ACTIVADO — A en día 1, C en día 22 |
| Gate F (riesgo compuesto) | CIS > 0.60 en al menos una cuenta nueva al cierre | ✘ NO ACTIVADO — máximo observado C=0.337 |
¿Qué significa que Gate F no se activó?
Que el CIS compuesto no cruzó el umbral más exigente pre-registrado. Eso no niega los hallazgos: Gate A activado es evidencia directa y sólida de exposición temprana a nivel 4. La distinción es importante y honesta: el estudio documenta exposición significativa y un patrón claro, pero no activa el escenario de riesgo compuesto máximo. Esa calibración es parte del rigor, no una limitación.
La metodología está diseñada para ser replicable sin acceso a datos internos de plataforma. Cualquier regulador, auditor o investigador puede aplicarla.
Datos fundamentales del estudio
| Qué observamos | Resultado |
|---|---|
| Duración del estudio | 45 días · 10 mar – 21 abr 2026 · Instagram |
| Cuentas observadas | 6 en total: 3 nuevas con perfiles distintos + 3 existentes del ecosistema IDMAH |
| ¿Cuándo apareció contenido de alta intensidad? | En una cuenta, el primer día. En otra, el día 22. En ambos sin que el usuario lo buscara. |
| ¿Y la cuenta de fitness y productividad? | Sostuvo contenido de nivel 3 (tensión identitaria) durante 3 semanas consecutivas. Cerró con el mayor índice de amplificación entre las nuevas. |
| ¿El algoritmo trata igual a cuentas de distinto tamaño? | No. La posición relacional en el ecosistema importa más que el tamaño de la audiencia. |
| Fiabilidad del método | 90.2% acuerdo entre observadores · κ=0.68 (sustancial, estándar académico) |
El dato: Dos cuentas nuevas alcanzaron exposición de nivel 4 antes del día 30: La cuenta A en el día 1 y la cuenta C en el día 22.
Eso activó el Gate A del protocolo, que significa que hubo exposición temprana a contenido de alta intensidad en al menos dos cuentas nuevas, sin búsqueda activa.
Relational reach: el concepto central
Relational reach es la capacidad que tiene un sistema algorítmico de influir no solo por el contenido que muestra directamente, sino por la forma en que conecta ese contenido con otros contenidos, con otras comunidades y con otras identidades. No se refiere simplemente a cuántas personas ven algo, sino a cómo el sistema organiza lo que ven después.
Un algoritmo no solo decide qué aparece en pantalla. También decide a qué te acerca. Y ese acercamiento no es neutro: enlaza contenidos entre sí, agrupa comunidades entre sí y puede terminar organizando trayectorias de identidad a gran escala sin necesidad de mostrar contenido ilegal. Esa es precisamente la dimensión que C.A.R.A. busca observar y medir.
Esto importa porque buena parte de la regulación actual sigue centrada en contenido ilegal o abiertamente dañino, dejando fuera una dimensión más estructural: la arquitectura de relaciones que los sistemas de recomendación construyen entre contenidos y usuarios. Ahí está la brecha que C.A.R.A. intenta volver visible y operativa para el análisis regulatorio.
Uno de los hallazgos que ayuda a precisar mejor el marco de C.A.R.A. es que ni el cierre del entorno de recomendación ni la puntuación compuesta final del estudio —el CIS, que resume exposición, cierre, escalada y refuerzo— siguieron linealmente el tamaño de la audiencia.
En la comparación entre las cuentas D y E, la cuenta de menor escala —Retiro para Hombres (cuenta E) — apareció, en algunos indicadores, situada en un circuito de recomendación más cerrado, más repetitivo y menos diverso que @demachosahombres (cuenta D).
Este contraste no basta por sí solo para establecer un mayor riesgo total, porque lo que muestra C.A.R.A. es que el riesgo no se define por un único indicador aislado, sino por la combinación de varias dimensiones de exposición, cierre, escalada y refuerzo.
El algoritmo no solo amplifica contenido. Traza relaciones entre contenidos, estrecha trayectorias de exposición y empuja a las identidades hacia comunidades cada vez mejor organizadas, más cerradas, reactivas y radicalizadas.
Principales hallazgos:
La radicalización no es el fenómeno principal. |
La radicalización es un subproducto. El paper no estudia "radicalización" como evento extremo, sino algo anterior: la intensificación progresiva de marcos de identidad. Lo que ocurre antes de que el problema sea visible. La machosfera opera exactamente en ese tramo previo — y lo hace desde dentro de plataformas convencionales como Instagram, no desde un rincón oscuro de internet. Red Pill, MGTOW, incels, narrativas de dominación: ninguna de estas comunidades existe en el vacío. Existen porque los sistemas de recomendación algorítmica las construyen, las conectan entre sí y las hacen llegar a usuarios que nunca las buscaron. Lo que C.A.R.A. documenta es que Instagram produce ese mismo patrón de forma autónoma: sin que ningún actor externo intervenga, el sistema reconstruye el pipeline de la machosfera. La radicalización no es el punto de partida del problema. Es el resultado final de trayectorias que empiezan mucho antes y con contenido aparentemente inocuo. |
|---|---|
El sistema no amplifica contenido. Amplifica trayectorias. |
La conversación pública sigue centrada en "qué contenido se amplifica". Lo que observamos es otra cosa: el sistema organiza secuencias. Eso es lo que cambia el marco regulatorio. |
La neutralidad de entrada no protege. |
Incluso cuentas sin señal identitaria clara entran en trayectorias de intensificación. Entrar sin ideología no significa quedarse en un espacio neutro. Significa que el sistema decide hacia dónde moverte. |
El algoritmo reduce el tiempo de exposición necesario. |
Lo que antes podía tardar meses o años en consolidarse como parte de una identidad hoy puede empezar a configurarse en semanas. No porque el contenido sea más extremo, sino porque el sistema es más eficiente conectando. |
El riesgo es poblacional, no individual. |
No importa solo lo que le pasa a una persona. Importa que el mismo patrón se reproduzca a escala. Cuando millones de cuentas reciben trayectorias similares de intensificación, lo que cambia no es el individuo. Es la conversación social. |
El sistema no necesita contenido ilegal para generar riesgo sistémico. |
Todo puede ocurrir dentro de contenido "permitido". La brecha regulatoria no es de moderación. Es de arquitectura. No necesitas contenido ilegal para generar riesgo social. Basta con una arquitectura que conecte el contenido de cierta manera. |
La cohesión social se erosiona antes de que el conflicto sea visible. |
Cuando el conflicto es visible, la erosión ya ocurrió. C.A.R.A. propone medir el proceso antes de ese punto, mientras todavía es posible intervenir. |
La escala de audiencia no equivale a riesgo regulatorio. |
El tamaño de la audiencia no explica por sí solo el comportamiento del sistema. En algunos indicadores, Retiro para Hombres (~1.600 seguidores) mostró un entorno de recomendación más cerrado que @demachosahombres (más de 475K durante el trabajo de campo), lo que sugiere que la posición relacional dentro del ecosistema importa más que la escala de la audiencia. |
Encuesta a la comunidad IDMAH. |
En el marco de esta investigación, hicimos una encuesta en nuestros Stories de nuestra cuenta de Instagram @demachosahombres, con 147 respuestas. El 50,6% de quienes respondieron dijo haber llegado a IDMAH por recomendación algorítmica directa. Y el 28,6% reportó haber recibido contenido hostil o polarizante sobre masculinidad a través del algoritmo. Este dato no sustituye el estudio de campo, pero lo complementa con la experiencia reportada por la propia comunidad. |
Conclusiones:
Los sistemas de recomendación pueden acercar progresivamente a los usuarios a contenidos de mayor intensidad identitaria sin necesidad de búsqueda activa.
La exposición a contenido de alta intensidad puede ocurrir en fases muy tempranas de la vida de una cuenta, incluso sin historial previo.
Las trayectorias de contenido observadas no son aleatorias: muestran direccionalidad hacia marcos cada vez más cerrados o reactivos.
La lógica de recomendación opera a través de relaciones entre contenidos, no únicamente a través de su popularidad o relevancia individual.
Las cuentas neutras no permanecen necesariamente en entornos neutros: pueden ser incorporadas a trayectorias de intensificación progresiva.
La arquitectura de recomendación puede reducir la distancia entre un usuario y contenidos de mayor intensidad sin que ese proceso sea visible para el usuario ni para el regulador.
El riesgo sistémico no depende únicamente de la existencia de contenido extremo, sino de la estructura de acceso a ese contenido.
La escala de audiencia de una cuenta no determina el riesgo algorítmico que genera. Lo determina su posición relacional dentro del ecosistema.
La cohesión social puede verse afectada no solo por el contenido que circula, sino por las trayectorias que los sistemas construyen entre usuarios y contenidos.
El análisis de sistemas de recomendación requiere ir más allá del contenido y centrarse en su arquitectura relacional: eso es lo que C.A.R.A. propone.
Edades: quiénes son los usuarios y por qué importa
Instagram ya no funciona principalmente como una red de cuentas seguidas. En su página de Explorar, más del 50% del contenido ya proviene de cuentas que el usuario no sigue. La persona que cree que está eligiendo pero está navegando una arquitectura preconfigurada que no ve.”
No es lo mismo recomendar contenido a alguien con una identidad consolidada que a alguien que todavía está construyendo quién es. Adolescentes y jóvenes adultos están en pleno proceso de construcción identitaria: buscan pertenencia, lenguaje, comunidad, explicación de sí mismos. Cuando un sistema algorítmico opera sobre esas búsquedas, el impacto potencial es cualitativamente distinto.
Instagram exige una edad mínima de 13 años y Meta ha implementado “Teen Accounts” para menores de 18 con ajustes protectores por defecto. Pero la plataforma también reconoce que usa predicción de edad incluso cuando alguien declara ser adulto. El 7% declarado de 13-17 es solo una estimación de la audiencia verificable. La cifra real de menores activos podría ser significativamente mayor.
Datos de audiencia Instagram
| Grupo de edad | % audiencia global | Dato clave |
|---|---|---|
| 13–17 años | ~7% | Meta activa "Teen Accounts" con protección por defecto |
| 18–24 años | ~29–31% | 76% de jóvenes de 18-24 en EE.UU. usan Instagram · 53 min/día promedio |
| 25–34 años | ~31–33% | Grupo más grande globalmente · Alta formación identitaria aún activa |
| 35–44 años | ~17% | Segunda generación más activa |
| Total 13–34 | +70% | Etapas de mayor búsqueda de pertenencia e identidad |
Fuentes: Statista / DataReportal / Backlinko (julio 2025 – feb 2026). DataReportal reporta 3.000M MAU globales en 2026.
Estos sistemas no operan sobre usuarios neutros,
sino sobre identidades sensibles e influenciables porque están en construcción
Cohesión social: el puente grande
La cohesión social no se rompe de golpe. Se erosiona cuando millones de personas empiezan a ver el mundo desde marcos cada vez más cerrados. Los algoritmos hoy pueden alterar nuestras identidades, amplificando las más reactivas, haciéndolas más visibles, más dominantes y mejor organizadas. Cuando eso ocurre a gran escala, lo que cambia no es solo el individuo sino el impacto que estos tienen en la cohesión social.
La cohesión social no se rompe solo por lo que la gente cree, sino por cómo llega a creerlo.
Los sistemas de recomendación algorítmica no generan daño de golpe. Lo generan en cadena. Primero reducen la diversidad de lo que ves hasta que solo ves perspectivas similares a la tuya. Luego refuerzan la idea de que los que piensan distinto son un adversario. Luego reducen el contacto entre comunidades distintas hasta que la exposición cruzada casi desaparece. Y si ese proceso se sostiene el tiempo suficiente, el tejido común que hace posible el desacuerdo democrático se erosiona.
C.A.R.A. mide la velocidad a la que un sistema de recomendación empuja a sus usuarios a lo largo de esa cadena.
El umbral pre-registrado del estudio establece que un CIS superior a 0.60 en una cuenta nueva indica riesgo significativo. El máximo observado fue C=0.337. Eso no activa el umbral más alto, pero sí documenta exposición significativa y medible a contenido de nivel 3-4. El riesgo no requiere cruzar el umbral máximo para ser regulatoriamente relevante.
La erosión de la cohesión social ocurre antes de que el conflicto es visible.
Contenido relacionado
| Documento | Dónde está | Para quién |
|---|---|---|
| Policy Brief (documento de política pública) | doi.org/10.5281/zenodo.19863879 | Instituciones, reguladores, medios |
| Paper empírico completo | SSRN / OSF (disponible próximamente) | Investigadores, periodistas, aliados |
| Seguir el trabajo | @demachosahombres (Instagram) · nickonogues.com | Cualquier persona interesada |
Por qué importa este estudio
La urgencia de este trabajo ya no es abstracta. En 2025 y 2026, México registró los primeros ataques documentados con ideología incel: el del CCH Sur en la CDMX (septiembre 2025) y el de una preparatoria en Michoacán (marzo 2026).
Ambos agresores dejaron señales en redes sociales y ninguna plataformas tiene la disposición para detectarlas a tiempo, adicional a eso la arquitectura de recomendación que amplificó esas trayectorias no ha sido auditada ni antes ni después y eso es el problema que C.A.R.A. propone medir.
La mayoría de estudios sobre algoritmos y radicalización se han hecho en inglés, en EE.UU. o Europa, muchas veces con acceso a datos internos de plataformas. C.A.R.A. es diferente en tres dimensiones: está hecho en español, en un ecosistema de masculinidades hispanohablante real, y sin acceso a datos internos ni a APIs de plataforma.
C.A.R.A. es probablemente una de las primeras investigaciones desde el Sur Global que utiliza un laboratorio social hispanohablante de gran escala para observar directamente cómo un algoritmo influye en trayectorias de identidad, mediante observación longitudinal de campo, sin acceso a datos internos de plataforma y sin financiamiento del Norte Global.
En nuestra región, hay estudios sobre “plataformización del voto” en Brasil, Colombia y México, que analizan contenido sobre comunicación política electoral, pero no identidades sensibles bajo una observación de campo controlada. Y segundo, también está presente la tradición latinoamericana de estudios sobre masculinidades (Olavarría, Viveros Vigoya), que es sólida pero pre-digital.
Sin embargo, y hasta donde hemos podido verificar en la literatura disponible, no existe ningún estudio de campo observacional controlado de 45 días con protocolo de indicadores pre-registrados midiendo amplificación posicional en Instagram desde el Sur Global. La investigación sobre radicalización algorítmica que existe es anglosajona —DCU, King’s College, Oxford Internet Institute— o sobre política electoral, mas no sobre identidades sensibles.
El fenómeno se está desarrollando aquí, en español, a gran escala.
México, Colombia y Ecuador tienen presencia documentada de la machosfera (ONU Mujeres, 2025). En EE.UU., el 70% de los jóvenes en YouTube recibe contenido de la machosfera semanalmente. En Reino Unido, el 80% de los chicos de 16-17 años ha consumido contenido de Andrew Tate (Hope not Hate, 2023). La radicalización algorítmica ya no es un fenómeno norteamericano o europeo: es global, hispanohablante y está acelerándose en los ecosistemas donde no existe investigación propia. Con CARA es la primera vez que hay datos desde dentro de uno de esos ecosistemas.
Los gobiernos y organismos internacionales que hoy diseñan regulación para plataformas digitales necesitan evidencia, y la que hay disponible es del Norte Global, calibrada sobre ecosistemas culturales distintos. América Latina y España carecen de datasets propios sobre estos fenómenos. Esa ausencia es una desventaja política real en el momento en que se define el marco regulatorio global para estos sistemas.
Cómo colaborar
C.A.R.A. abre una línea de trabajo que crece en varias direcciones.
Estamos disponibles para briefings con periodistas que quieran entender los datos antes de publicar; para instituciones interesadas en financiar una segunda fase del estudio y ronda de investigación más amplia para aplicar el marco en otros ecosistemas; y para labs y espacios culturales y sociales que quieran traducir estos hallazgos en conversación pública, talleres, conferencias o presentaciones.