Las plataformas digitales llevan años ocupando un lugar central en la conversación pública, pero no siempre se discute con precisión qué son, qué poder tienen y, sobre todo, qué habría que regular cuando se habla de ellas. En ese terreno cargado de slogans como la libertad de expresión, la neutralidad tecnológica o la innovación como coartada Ana Bizberge propone volver a una pregunta incómoda pero indispensable: quién organiza hoy la circulación de lo que vemos, leemos y discutimos en el espacio público.
Investigadora y docente especializada en políticas de comunicación, convergencia y plataformas, Ana Bizberge viene siguiendo desde hace años las mutaciones del ecosistema digital y sus efectos sobre la democracia.
–Pensando en la regulación de plataformas, ¿Qué aspectos es necesario regular y mediante qué tipo de mecanismos?
–Hay mucho debate sobre eso, y depende bastante a quién le preguntes y qué le preguntes. Lo primero es que “plataformas” no es una categoría homogénea: no son todas iguales ni operan sobre los mismos mercados del mismo modo. Todos más o menos sabemos de qué hablamos cuando usamos el término, pero a la hora de pensar cómo regularlas aparece una primera dificultad: qué regular exactamente. No es lo mismo una empresa integrada verticalmente, que tiene lo que algunos autores llaman “poder infraestructural”, que otra como Netflix, que ofrece un servicio dentro de un sector específico.
–¿En qué consiste el poder infraestructural? ¿Es una forma de integración vertical? ¿Qué implicancias tiene?
–La idea de poder infraestructural aparece en autores que analizan a las grandes plataformas, sobre todo a las GAFAM: Google, Apple, Amazon, Meta y Microsoft. Se refieren a que su poder radica en controlar la infraestructura que necesitan otras plataformas y otros actores para prestar sus servicios, incluso cuando ellas mismas compiten con ellos en algún eslabón de la cadena de valor. Amazon, por ejemplo, puede competir con la industria editorial o con el sector audiovisual, pero al mismo tiempo participa en otros eslabones indispensables, como los servicios de nube, almacenamiento y otros recursos que hacen funcionar internet y las industrias culturales en un escenario plataformizado.
–¿Por dónde habría que empezar un proceso de regulación?
–Esa es la gran pregunta. Y ahí vuelvo al principio: hay mucha controversia. En definitiva, estas plataformas importan porque intervienen en cómo circulan los discursos. Entonces, establecer reglas para regular su poder tiene sentido en la medida en que eso permita una circulación más democrática, que no proliferen la desinformación o los discursos de odio y, en general, que la esfera pública funcione mejor en la medida que las plataformas sean más responsables con su lógica de funcionamiento hacia los poderes públicos y hacia la ciudadanía. También hay motivaciones económicas vinculadas a la concentración, claro.
–Esa concentración económica, ¿hay que atenderla como una instancia previa a pensar la circulación de discursos?
–No sé si pensarlo como una secuencia —primero una cosa y después la otra— porque están muy imbricadas. Se trata de plataformas fuertemente concentradas, que operan en condiciones casi monopólicas en muchos mercados digitales, y establecen las condiciones en las cuales se accede y circula la información y la cultura. En la mayoría de los casos, estas plataformas no producen el contenido, sino que organizan y monetizan la circulación de discursos producidos por terceros. Y ahí está el gran problema: ¿cómo monetizan esos contenidos? Yo diría incluso que detrás hay, muchas veces, más intereses económicos que políticos. Más allá de las inclinaciones ideológicas de los dueños de las plataformas, estamos hablando de grandes empresas concentradas que, por el poder que tienen, dirimen cómo circula la información. Y eso ocurre muchas veces por una lógica económica: determinados contenidos se viralizan más fácilmente, eso atrae publicidad y así las plataformas acumulan capital.
–Internet nació asociada a una idea de red abierta, horizontal y desintermediada. ¿Qué capacidad de instalarse legítimamente tiene la discusión sobre la regulación frente a esa concepción?
–Ahí hay un punto central. El surgimiento de internet estuvo muy ligado a esa idea de arquitectura abierta, descentralizada, horizontal y desintermediada. Sobre esa base, hay quienes sostienen que no habría que regular porque la red, por definición, debería mantenerse libre de intervención. Esa postura además se apoya en una determinada concepción de la libertad de expresión, que es la del mercado de ideas. Desde esa mirada, no habría que regular los discursos porque las ideas “malas” se contrastan con las “buenas” y de esa competencia surgiría una suerte de equilibrio virtuoso.
–Si distinguimos el plano infraestructural, ¿qué tipo de regulación aparece ahí?
–La lógica de “plataformización” remite al poder infraestructural de las plataformas y cómo se tejen relaciones económicas. La cuestión remite al problema de la concentración, aunque ya no con las mismas características que en los sistemas de medios tradicionales. Por ejemplo, no aparece la cuestión de la licencia, como ocurría con los medios audiovisuales. Ahí hay cierto consenso en que no tendría sentido pedir licencias del mismo modo que se hacía antes. Entonces, el foco pasa más por exigir la transparencia y la rendición de cuentas. Empezando por algo básico: que estas empresas estén registradas en los países donde operan, que haya agencias regulatorias que puedan recibir reclamos y demandas, y que no todo dependa de la casa matriz en Estados Unidos o de filiales ubicadas en países donde esas empresas tienen menos obligaciones.
–¿Cómo se resuelve esa tensión entre reglas locales y empresas globales?
–No creo que en ninguna parte se haya resuelto del todo bien. Pero la punta de lanza en este tema es Europa, y ahí también pesa una cuestión de escala. En el marco de su estrategia de mercado digital, la Unión Europea viene avanzando desde hace más de diez años con regulaciones que le permiten imponer obligaciones mayores porque el impacto es continental. En América Latina eso es más complicado, entre otras cosas porque no funcionamos como bloque regional. Si cada país actúa por separado, el único que tiene una escala comparable es Brasil, no solo por cantidad de habitantes sino por su peso económico en la región. México, en cambio, está más alineado con la visión estadounidense, así que no aparece como una prioridad fuerte regular el poder infraestructural o la circulación de discursos en esos términos.
–Fuera de Europa, ¿no hubo mayores avances sobre la regulación del poder de las plataformas?
–En la región, no demasiado. En Brasil es donde hay más iniciativas. En general (no específicamente en el caso de Brasil), lo que actualmente suele aparecer más son iniciativas regulatorias vinculadas a la circulación de contenidos, sobre todo en temas de infancias y de desinformación en contextos electorales. En Europa sí hubo avances más claros. La Ley de Mercados Digitales apunta justamente al poder económico de las plataformas: regula mercados, establece obligaciones según el tamaño de la empresa, su facturación y su cantidad de usuarios —tanto individuales como profesionales, por ejemplo medios de comunicación—. A partir de ciertos umbrales, esas plataformas deben cumplir requisitos adicionales: reportes a reguladores, criterios de transparencia, rendición de cuentas ante los poderes públicos y ante la ciudadanía, y obligaciones respecto de cómo gestionan, por ejemplo, el mercado publicitario y su vínculo con los medios.
–¿Qué iniciativas regulatorias existen en Brasil?
— Respuesta: Muy recientemente, a mediados de marzo de 2026, entró en vigor en Brasil el Estatuto Digital del Niño y Adolescente (ECA Digital) para la protección de las infancias y adolescencias en el entorno digital. La normativa establece sistemas de verificación de edad, obligaciones para las plataformas en relación a los delitos digitales y limitaciones en el diseño que fomenten el uso compulsivo de pantallas, entre otras cosas. Por otro lado, teniendo en cuenta el contexto de elecciones presidenciales en el país, el Tribunal Supremo Electoral aprobó una serie de resoluciones que limitan el uso de inteligencia artificial en las campañas, que incluyen medidas para combatir la manipulación de contenidos y violencia política.
Además de las iniciativas recientes que mencioné hay diversos proyectos de Ley que tramitan en el congreso, entre ellos, la ley de mercados digitales, inspirada en la normativa europea.
–¿Y qué cambia cuando pasamos del plano infraestructural al de la circulación de contenidos? No es lo mismo Amazon concentrando sectores como el editorial o el audiovisual que Facebook o X coordinando la circulación de determinado tipo de contenidos en redes sociales.
–En esos casos aparece además una discusión adicional: las plataformas intentan presentarse como meras intermediarias, como si fueran solo el tubo por donde pasa el contenido. Pero en realidad ejercen una función editorial, porque organizan algorítmicamente esa circulación y eso tiene efectos concretos. Y en esa función editorial también hay intereses económicos.
–¿En qué consiste la función editorial de las plataformas?
–Está probado que no son neutrales. Si una plataforma no cobra por los contenidos, no paga por producirlos y tampoco cobra acceso a sus usuarios en el sentido tradicional, entonces su negocio pasa por otro lado: por el modelo publicitario. Va a privilegiar aquellos contenidos que se viralizan más, que generan más clics, más atención. Eso atrae publicidad, ya sea para vender productos, ideas o candidatos. Entonces ahí hay una lógica editorial, aunque no se presente de ese modo. La plataforma organiza, jerarquiza y monetiza la visibilidad.
–En ese marco, ¿qué lugar ocupa el lobby?
–El lobby sigue siendo una práctica clásica, como lo fue históricamente en los medios de comunicación. Pero en el caso de las plataformas hay algo particular: muchas veces logran que ciertas organizaciones de la sociedad civil hablen en su nombre, sin ser parte orgánica de ellas. A partir de financiamiento para determinadas agendas o líneas de trabajo, esas organizaciones terminan defendiendo el funcionamiento de las plataformas o argumentando por qué no habría que regular tal o cual aspecto. También aparece algo de “puerta giratoria”: personas con trayectoria en organizaciones de la sociedad civil pasan después a las áreas de policy de las plataformas.
–¿Y cómo se distingue este tipo de lobby de mecanismos como el de X o Meta, cuando cambiaron sus reglas de moderación de contenidos o cuando Meta eliminó sus acuerdos con fact-checkers?
–Ahí no estamos hablando estrictamente de lobby sobre los poderes públicos, sino de decisiones privadas de funcionamiento interno, pero con implicancias en la esfera pública. Primero lo hizo X, después Meta avanzó en una dirección similar. Son decisiones empresariales que impactan directamente sobre la esfera pública, porque afectan la circulación de discursos, pero no pasan necesariamente por una negociación regulatoria previa. Y justamente por eso muestran el problema: son reglas privadas con efectos públicos, sin una supervisión estatal clara. Después, cualquier intento de intervención desde el poder público es presentado como censura o como un ataque a la libertad de expresión. Ese argumento lo conocemos también de la historia de los medios tradicionales.
–¿Cómo se inscribe la noción “mercado de ideas” en este debate?
–La idea de mercado de ideas se apoya en una concepción maximalista de la libertad de expresión, que es la que sostienen las plataformas y, en general, la visión de Silicon Valley. Parte de la premisa de que no hay ideas buenas o malas a priori, y que todas las expresiones deben circular libremente. También supone una determinada concepción del poder, como si estuviera distribuido de manera más o menos equivalente entre las distintas voces. Entonces la lógica sería: todos tenemos derecho a decir lo que queramos y, si alguien dice una barbaridad, siempre habrá otra voz que la contradiga. Esas voces competirán por la atención de las audiencias.
–¿Y esa mirada se ha profundizado con estas nuevas modalidades de “regulación privada”, tales como las notas de la comunidad o el retroceso de los fact-checkers?
–Sí. De hecho, esas decisiones se sostienen sobre esa misma mirada. La idea de las plataformas es: ¿quién soy yo, como empresa, para moderar los discursos? Que se autorregulen entre los propios usuarios o que intervengan los algoritmos. En algún momento las plataformas tuvieron una intervención más activa sobre la moderación, pero eso no significó abandonar la lógica del mercado de ideas. Lo que cambió fue la forma en que esa lógica se adapta a las demandas sociales, políticas y a los cambios de clima político en distintas partes del mundo.
–¿Cuáles serían, entonces, los rasgos de esa concepción maximalista que hoy se están discutiendo?
–Básicamente, se trata de una concepción individual de la libertad de expresión. El problema es que, si uno la piensa solo desde ese plano, queda sin responder quién garantiza condiciones efectivas de acceso cuando no todas las voces tienen la misma visibilidad. En internet cualquiera puede abrir una cuenta y publicar, sí. Pero eso no significa que todas las voces tengan la misma notoriedad o circulación. Hay diferencias enormes. Y ahí aparece la necesidad de pensar no solo en la posibilidad formal de emitir, sino en las condiciones reales para que ciertas voces puedan ser escuchadas, sobre todo las de grupos vulnerables o históricamente invisibilizados.
–¿Qué rasgos podrías describir de la concepción social de la libertad de expresión?
–La concepción social implica volver a principios clásicos: no pensar solo en la libertad de expresión como derecho individual a emitir, sino también como posibilidad efectiva de acceder y participar de la discusión pública. En ese marco, el Estado tiene un papel como promotor y garante de condiciones más igualitarias para esa participación. Eso puede implicar incentivos o protecciones especiales para grupos vulnerables, marginados o estigmatizados. La discusión deja de ser solamente “que todos hablen” y pasa a ser también “quiénes pueden realmente ser escuchados”. Eso nos devuelve a pensar en el poder y responsabilidad de las plataformas en la circulación de discursos.
–¿Qué avances regulatorios se dieron en Australia y Canadá y que derrotero tuvieron esos procesos?
–Ahí hubo una primera oleada más enfocada en la relación entre plataformas y prensa. En Australia, y de manera parecida en Canadá, aparecieron normas para establecer códigos de negociación entre plataformas y medios de comunicación. La idea era responder al reclamo de los medios, que señalaban que producen noticias, pagan periodistas y chequean información, pero que las plataformas capturan buena parte de la renta publicitaria y, además, conocen mejor a sus públicos a partir de los datos que recogen. En la práctica, sin embargo, esas regulaciones tuvieron un alcance limitado. Lo que terminó predominando fueron acuerdos individuales y opacos entre cada plataforma y cada medio, en vez de mecanismos colectivos de negociación.
–¿Y por eso se produjeron los llamados “apagones informativos”?
–Claro. En respuesta a esas regulaciones, plataformas como Facebook y Google aplicaron apagones informativos: dejaron de mostrar noticias en sus servicios en esos países. No fue una decisión de los medios, sino de las plataformas. Y ahí vuelve a aparecer con mucha claridad el problema del poder infraestructural: la capacidad de actores privados para afectar directamente la circulación pública de información e incluso condicionar la implementación de leyes estatales. Formalmente esas normas siguen vigentes, pero en la práctica muchas veces quedan vaciadas por el modo en que las plataformas encauzaron el conflicto.
–¿Y qué pasa con temas como infancias, desinformación o integridad electoral?
–Ahí suele haber acuerdos más generales: casi todos coinciden en que hay que proteger a niños, niñas y adolescentes, combatir la desinformación y resguardar la integridad de los procesos electorales. El problema aparece cuando esos consensos hay que traducirlos en reglas concretas. Ahí ya no hay tanto acuerdo. En algunos países surgieron propuestas más punitivas; en otros, se discutieron mecanismos de control parental o restricciones de acceso. Pero la pregunta sigue siendo cómo hacerlo sin caer en soluciones problemáticas. Y algo parecido pasa con la desinformación electoral: las plataformas dicen que van a colaborar, pero al mismo tiempo se escudan en la lógica del mercado de ideas y trasladan la carga a otros actores, como si la solución fuera que las autoridades compitan mejor por la atención.