Clase 10

La revolución dentro de la revolución.

El primer avión sorprendió a los transeúntes del Bajo Manhattan. En pocos minutos las pantallas de los portales de noticias de los principales diarios del mundo subieron la información. Todavía se veía el polvo flotando en el aire, el fuego en el edificio a mitad de la Torre Norte de 410 metros de altura, y había dudas sobre lo que había ocurrido. La versión de que había sido un avión todavía era inverosímil, pero nadie estaba esperando un atentado, en todo caso, un error de vuelo técnico o humano. En Argentina eran las 8. 45 de la mañana, por tanto, todas las pantallas de las oficinas estaban encendidas. Cerca de 1.100 millones de personas pudieron acceder a esa información en directo, era por entonces el 15 % de la población mundial. Pero a su vez todas las cadenas de noticias pusieron imágenes del acontecimiento, así que la transmisión en vivo desde la CNN o la CBS recorría el mundo. Quince minutos después el segundo avión se estrelló con la segunda torre. Así arrancó para muchos el siglo XXI.

En los próximos diez años el mapa de las comunicaciones tal como se conocía hasta entonces iba a profundizar su tendencia hacia la conectividad, pasando de 500 millones de conexiones a 2.500 millones en 2010. Sin embargo el cambio sustancial no vendría por el lado de la extensión del alcance de la red y por los cada vez más numerosos URL que conectaban contenidos y páginas, sino por la revolución en la lógica de los usos. Hasta los principios del siglo XX la red seguía siendo un medio centralizado y millones, si millones, de usuarios dispersos o atomizados. Los contenidos eran producidos por instituciones, podían ser medios gráficos, universidades, estados, centro de investigación o personas, periodistas free lance en sus blogs, pero todavía la web era una suerte de vehículo. Internet era un canal más de exposición de contenidos. Esta fue la web 1.0. A finales de los 90 se produce la revolución dentro de la revolución.

El primero que teorizó esta reconversión fue el desarrollador Tim O´Reilly, que escribió en 2004, “¿Qué es la web 2.0?” Allí O´Reilly observaba que la web de entonces todavía replicaba el viejo concepto unidireccional de la información clásica. Después de la “crisis de las punto.com” del 2001 que la caída de Napster representaba de una forma contradictoria (ciertamente había sido una de las empresas que más había crecido entre 1997 y 2000, pero su caída devenía de un debate jurídico sobre los derechos de autor que aún tiene resonancias), O´Reilly se preguntaba qué tenían en común las empresas digitales que estaban sobreviviendo a la debacle. En ese brainstorming se construyó el mapa meme de la nueva web que ha quedado para la historia de la web.

https://www.researchgate.net/figure/Web-20-Meme-Map-by-Tim-OReilly-2009_fig3_232746598/download

Ahí aparecía por primera vez ordenados algunos de los conceptos fundamentales. La idea de la web como una plataforma, el concepto de inteligencia colectiva, la opción por la arquitectura de participación, el acento en los aportes de los usuarios y un modelo de desarrollo que se despegaba de las actualizaciones periódicas. O´Reilly veía ya en aquellos primeros años que el negocio de la web estaba en lo que luego serían las aplicaciones.

El ejemplo más contundente entre el viejo modelo de la web y el que emergía con las nuevas startups era Wikipedia. Comparada con la enciclopedia británica online el invento de Jimbo Wales era radicalmente distinto. ¿Una enciclopedia colectiva creada en forma permanente por usuarios anónimos sobre los más diversos temas y corregidas en tiempo real? Eso era realmente una revolución. Si la enciclopedia de Diderot pretendía resumir todos los conocimientos de las mentes más brillantes del siglo XVIII, esta enciclopedia pretendía expandir todos los conocimientos de todas las mentes sin jerarquizarlas ni pretender que esa fuera la verdad definitiva. Como señaló Patricio Lorente1, vicepresidente de la Fundación Wikipedia, esa experiencia era una verdadera herejía. Si la primera seguía basada en el viejo concepto centralizado, la otra se abría a la infinita producción de los actores. Una quedó en la historia, la otra es hoy la fuente de información más utilizada en el mundo.

Jimbo Wales, un tecnólogo y entrepreneur, admirador de la filosofía de Ayn Rand, empezó imaginando pedir los artículos a especialistas, pero después descubrió que lo mejor era que a través de las técnicas wiki fueran los propios usuarios los que se convirtieran en co-redactores, en productores de esos contenidos, sobre los más diversos temas, en todas las lenguas posibles, incesantemente. Una biblioteca viva, que se mueve, que crece. ¿No será acaso que finalmente el mapa puede ser tan grande como el territorio?

Del 2.000 en adelante, en ese contexto, la web se transforma. En apenas un lustro nacen la mayor parte de las startups que definirán el camino de la web. Wikipedia en 2002, Google en 2004, Facebook 2004, Youtube en 2005, Twitter en 2008, la transformación de Amazon en 2009. Es la era de las redes sociales que culmina con la tercera etapa de la Web de 2010 en adelante: la web 3.0. La que se denomina web semántica. Donde la sociedad definitivamente se digitaliza. Facebook tiene hoy cerca de 2.000 millones usuarios, la conectividad alcanza a más de la mitad del globo, hay regiones donde la cantidad de celulares es equivalente al de las personas. Los hogares se convirtieron en espacios multipantallas. Si la primera década del siglo XXI fue el de las redes y el crecimiento de la conectividad, el de la segunda década será el del consumo vía streaming, si una apostaba a la integración, la siguiente apostará al tiempo. Si en una lo que se concentraba era el espacio, en la otra lo que se amplificó fue el tiempo de consumo. Movilidad, inteligencia colectiva y transmedialidad. Si con el cine fuimos espectadores, con la radio oyentes, con la televisión audiencias, con los medios digitales comenzamos a ser internautas, navegadores, prosumidores, comunidades virtuales. El problema es que ya no vamos hacia los medios, estamos atravesados por ellos, viven con nosotros. Son nuestro entorno. Nace así la ecología digital.

La brecha digital: de Ginebra a Túnez

Si en el ámbito de los desarrolladores y los empresarios de la nueva economía el clima de la década fue de euforia y experimentación, en el ámbito internacional el debate estuvo marcado por el concepto de Sociedad de la Información. Como nuevo concepto fetiche, la Sociedad de la Información fue un proyecto político2 que tuvo como marco los dos grandes encuentros mundiales convocados por las Naciones Unidas en Ginebra en 2003 y Túnez 2005. Ambos encuentros, denominados Cumbres Mundiales de la Sociedad de la Información, organizadas por la Unión Internacional de Telecomunicaciones, estaban destinados a analizar el impacto de las nuevas tecnologías de la información en la sociedad. Si bien, como dice Guillermo Mastrini3, los eventos tuvieron una amplia difusión a través de los países miembros de las ONU, el debate nunca logró trascender a los directos interesados en los negocios de la comunicación y los especialistas académicos. Ni siquiera las organizaciones de la sociedad civil que se interesaron por la temática, conscientes de que allí se jugaba una parte de los procesos político democráticos del nuevo siglo, consiguieron el interés de los ciudadanos.

Así, las tecnologías que comenzaban a ser parte de la vida cotidiana de los países centrales, tardaron aún en llegar a las periferias. Todavía en el año 2005 solo el 25 % de la población en Argentina estaba conectada a Internet y gran parte de la población accedía a la web a través de locutorios o ciber café. El comercio electrónico era escaso, sólo el 9 % había comprado algún bien por ese medio, y todavía el volumen mayor de consumos era música o libros, aunque lentamente se extendía a indumentaria o productos electrónicos4. La banda ancha era sólo para medio millón de habitantes, aunque Argentina se posicionaba como el tercer mayor productor de contenidos en castellano de la red. El 86% de los usos estaban vinculados con el e-mail y un 69 % con la búsqueda de información. Argentina hacía apenas 3 años que había salido de una crisis económica compleja y llevaba apenas unos pocos meses el acuerdo que posibilitó resolver el problema de su deuda con los organismos inter-nacionales y los bonistas. Era comprensible entonces que una cuestión todavía abstracta tuviera alguna significación social.

Por el contrario, para la mayor parte de los países centrales el debate sobre el impacto tecnológico en el campo económico y social venía de larga data. Si bien los primeros en acuñar el concepto de “sociedad de la información” fueron los japoneses5, que, a mediados de la década del sesenta, ya habían definido que la nueva economía se movería al calor de los dispositivos informáticos (la primera mención a este concepto aparece en la obra del sociólogo japonés Yoneji Masuda, Introducción a las sociedad de la información, de 1968), el tema adquiere una relevancia indubitable a partir de dos instancias.

En primer término, la propuesta americana, delegada por Bill Clinton en su vicepresidente, Al Gore, de impulsar un programa sobre la Autopista de la Información. Allí se planteaban los cimientos de la Global Informatión Infraestructure de 1994, y por otro lado, el Informe Bangemann de la Comisión Europea para las Telecomunicaciones de la Unión Europea de 1995. Denominado Europa y la sociedad de la información global, este informe que lleva el nombre de Martín Bangemann, vicepresidente de la comisión, elabora una serie de consideraciones para la toma de decisiones de la Unión Europea en el contexto de la fuerte competencia entre las economías de los países centrales. Dos años después, la misma Unión Europea presentaba el informe Vivir y trabajar en la sociedad de la información.

El contrapunto entre las dos cosmovisiones estaban planteadas. Mientras la perspectiva americana priorizaba las re-des y la economía, con un discurso de renovado democratismo ligth, la Unión Europea buscaba algún tipo de equilibrio entre la diversidad cultural que la determinaba como una unión supranacional y el respaldo a una economía que se transformaba, pero en la cual su interés era preservar a sus empresas, pequeñas y medianas, de la competencia norte-americana. El detalle del informe Bangemann sobre lo que Europa esperaba de sus creadores, de sus gobiernos, de los ciudadanos, de las medianas y pequeñas empresas, de los operadores en telecomunicaciones, hacía explícita una opción sobre los equilibrios que tanto trabajo había llevado para los europeos. El peligro siempre expuesto era que el avance de la sociedad de la información profundizara las desigualdades. De ahí nació el concepto de brecha digital, del cual el Libro verde, como así se conoce el segundo informe de la Comunidad Europea, trató de representar. Si a las diferencias socioeconómicas preexistentes, ahora se sumaban el impacto de las nuevas tecnologías en una economía que ahora le daría más potencia a los ya poderosos, nada hacía suponer que esas diferencias no fueran más profundas al cabo de un tiempo. El testimonio que Martín Becerra recogía de Ignacio Ramonet era contundente:

“El resultado de la red es el crecimiento masivo de la desigualdad”. Por su parte, el último informe sobre el Desarrollo Humano del PNUD (Programa de las Naciones Unidas para el Desarrollo) subraya que la relación de ingreso entre el 20% más rico y el 20% más pobre aumento de 34 a 1 en 1970 a una relación de 70 a 1 en 1997”6.

¿Cuáles fueron los saldos de los encuentros internacionales de Ginebra y Túnez? ¿Qué logros se desprendieron de esos eventos? Es difícil ponderar en pocas líneas las consecuencias de este tipo de eventos. A la distancia, no podría dejar de resaltarse que las brechas que entonces se señalaban críticamente aumentaron y se profundizaron, y qué lejos estuvieron de cumplirse las promesas que se anunciaban, incluso las “precarias soluciones”7 que se prometían en Túnez. Pero lo cierto es también que las políticas públicas no son responsabilidad directa de estos ámbitos. Es función en realidad de estos espacios la construcción de conceptos, la rendición o “accountability” de las políticas internacionales, el intercambio de ideas y experiencias. En ese caso, si es importante señalar que en el marco de estas instancias científico políticas surgieron y se consensuaron varias de las iniciativas sobre la sociedad de a información que luego tuvieron gravitación en muchos países. Quizás la más importante, por su trascendencia y envergadura, fue la iniciativa One lapto per child, de Nicholas Negroponte, director ejecutivo del MIT, autor de Being Digital, que promovió la idea de que una forma de achicar la brecha digital implicaba empezar por los niños, por los sistemas educativos.

Cinco C y una E: el modelo uno a uno en Argentina

Como señalamos antes la hipótesis se lanzó en el marco de las cumbres internacionales: a las brechas económicas, sociales o culturales, había que sumarle la digital: Digital divide, se la llamó, y simultáneamente se consideró necesaria una estrategia para superarla. Eso fue “One Laptop per Child”, el programa inspirado por Nicholas Negroponte. A su vez, Unesco promovía un nuevo concepto que se asociaba al de la brecha digital: la brecha cognitiva. Las transformaciones tecnológicas que conectan sociedades y hacen accesible un volumen de informaciones nunca antes visto, no garantizan la apropiación del saber. En ese contexto, la brecha cognitiva comenzó a utilizarse como una categoría que superaba la anterior, considerada demasiado instrumental, para los ideales de sociedades democráticas: así nació el concepto de Sociedad del Conocimiento. Es cierto, los nuevos soportes facilitan el acceso, ¿pero garantizan los aprendizajes?

La propuesta de OLPC fue concebida como la asignación de una computadora personal para cada niño o niña en edad escolar, que Negroponte negoció con las grandes compañías: era una computadora liviana, pequeña, barata (100 dólares era la promesa que Negroponte le sugirió a las grandes compañías), que debía distribuirse en todas las naciones en desarrollo o periféricas. La Cumbre Mundial de Túnez (2005), que jalonó el camino de la sociedad digital, fue el escenario del anuncio. A pesar de que esta iniciativa suponía para algunos la continuidad del viejo espíritu colonialista, una gran parte de los países periféricos comenzaron a ponerla en práctica. No sólo porque sumar a los otros atrasos el de la información era doblemente peligroso, sino además porque en la transformación del sistema capitalista, como sugiere Scott Lash8, la información ha pasado del nivel superestructural al de la base económica.

Indudablemente la primera década del siglo XXI fue la del crecimiento de los entornos digitales. Lo demuestran el desarrollo de la conectividad con la banda ancha, el surgimiento de las redes sociales o la teoría de la red 2.0 que Tim O´Reilly predijo con el concepto de la arquitectura de la participación en la que los usuarios son co-creadores de la red. Ya para 2010 Latinobarómetro informaba que la conectividad había alcanzado al 39 % de la población de América Latina, habiendo partido del 19 % en el año 2002. En algunos países, como Chile, Argentina o Venezuela ese guarismo había superado el 50 %.

En América Latina la implementación en el sistema escolar de “Una laptop por chico”, se lo conoció como “Modelo Uno a Uno”. Así comenzaron en Chile, en Brasil, en Uruguay o en Argentina, los diferentes planes, algunos dirigidos al nivel primario, al secundario, con modalidades que iban desde planes pilotos o universales, nacionales o regionales. El que tomó desde 2010 el universo más amplio fue Argentina, con 3 millones de laptops, seguido por Brasil con 1 millón y medio, o Portugal con 400 mil. En el caso argentino se sumó el fuerte impulso otorgado a la conectividad, a través de los planes “Argentina conectada” e “Internet para Establecimientos educativos” que preveía conectar 5.434 establecimientos, sumado la extensión de la banda ancha vía satelital dadas las características del territorio argentino, la producción de contenidos digitales y el desarrollo de programas de aplicación pedagógica a través de Educ.ar y del Canal Encuentro, a lo que se articuló una estrategia de capacitación docente para profesores en ejercicio y docentes en formación, desde la agencia de OEI y el INFD, por el cual se formaron más de 62.000 docentes en los seminarios de “Entornos virtuales para el modelo uno a uno”. Vera Rexach, la coordinadora para el nivel secundario, comentaba que los tutores de los seminarios, más de 200 especialistas en TIC aplicadas a la educación, que a lo largo del país asistían a los docentes online, ya lo llamaban las cinco C: Computadoras, conectividad, contenidos, capacitación y conectividad, a las que habría que agregar una E: Evaluación. La evaluación fue coordinada por el Ministerio de Educación de la Nación y realizada por 14 Universidades Nacionales y la Universidad Pedagógica de la Provincia de Buenos Aires. En el año 2012 se presentaron los primeros resultados; el programa aparecía como una promesa cumplida (la comunidad educativa manifestaba que a medida que llegan las computadoras las familias tenían la sensación de que algo estaba cambiando en la gestión pública); el programa era universalmente aceptado como una primera iniciativa que abarcaba la totalidad del sistema (y no un programa focalizado como los que imponía el neoliberalismo), y se destacaba que no fuera una experiencia piloto, más allá de las dificultades que implicaba una estrategia global como esta. De algún modo el Programa Conectar igualdad estaba “ensanchando territorios”, como definió Jorge Huergo9, no sólo territorios educativos sino también políticos. La brecha digital era educativa, pero también cognitiva, y ponía en evidencia la necesaria reconfiguración del saber. ¿Y cuáles eran, en aquel contexto, las variables centrales de la reconfiguración de ese saber?

Jesús Martín-Barbero señaló tres. La primera corresponde al vertiginoso desarrollo del conocimiento que, a partir de la propia lógica del desarrollo científico que avanza hacia la ultra especialización y los saberes expertos, se ha tornado una fuente estructural de riesgo para la sociedad. Un riesgo que Zygmunt Bauman advierte no como daños colaterales de la ciencia y la industria sino como consustanciales a un tipo de desarrollo que, en pos de la manipulación y el control, ha saltado las vallas de la responsabilidad por el todo10. Como sugiere Jesús Martín-Barbero, de esa expoliación sólo nos puede salvar la reflexividad, la posibilidad de la sociedad de pensarse a sí misma colectivamente. Anthony Giddens en Consecuencias de la Modernidad refirió la importancia de esta capacidad social de autoreflexión a ejercer políticamente. Porque es cierto, la sociedad moderna es la primera que asienta sus certidumbres no en el pasado sino en el presente, buscando en forma constante una fuente de razón en el sostenimiento de sus prácticas. Este “cómo proseguir” que Giddens toma de Wittgeinstein, parece clave. La segunda variable del desorden del saber es la que emerge de la amalgama cada vez más intensa entre tecnologías y vida humana: las máquinas ya no son sólo eso, máquinas, sino cada vez más una amalgama de “cerebro e información” que nos remite a una tecnicidad, dice el autor iberoamericano, que escapa a la idea de ver a las tecnologías como meros aparatos, meros instrumentos o herramientas de uso. Hay un lugar en el que la tecnología configura fuertemente subjetividades, un lugar que es necesario pensar cada vez con mayor profundidad, para no caer en un pensamiento dicotómico que pone a las tecnologías, a los aparatos, por fuera de la sociedad que los crea. Por último, aparece la variable del descentramiento, la reconfiguración de las dimensiones fundamentales que determinaron hasta hoy la educación clásica, la educación moderna, casi podríamos decir, la educación con mayúscula, desde que los estados nacionales decimonónicos le arrancaron a la familia y a la iglesia, el patrimonio del conocimiento. Y me refiero a lo que Martín-Barbero llamó el “espacio de la escuela y el tiempo de aprendizaje”. Porque claramente, lo que las tecnologías tocan es el dominio que las instituciones educativas tuvieron por décadas: el control del saber.

El largo adiós analógico.

En paralelo a este proceso de transformaciones que viven durante la transición del siglo XX al siglo XXI los sistemas de enseñanza, los medios tradicionales sufren su propias crisis. Los corría por detrás, pero muy cerca, lo que Milad Dohueihi11 llamó la “conversión digital”; es decir, el pasaje del mundo analógico al numérico. Casi todos los países del mundo establecieron dentro de la segunda década del siglo XXI su apagón analógico. Es decir, el fin de las transmisiones de datos por vía analógica y la inclusión definitiva de las sociedades en el mundo digital.

Lo que Henry Jenkins prefiguró en Fans, bloggers y videojuegos, es presente: digitalizados. Y es irrevocable. Este proceso al que asistimos cierra de modo definitivo el ciclo tipográfico y el breve período del broadcasting. Y se confirma así la perversa trama de los medios que están destinados a matar a sus padres o mandarlos al geriátrico. De este modo, el fin del mediocentrismo que habilitó la llegada de las audiencias no fue causa de las conciencias críticas de la academia o de las Políticas Nacionales de Comunicación, sino de los tecnólogos asociados a las consumidores: los fans, los nerd, aquellos denostados hijos de la comunicación masiva que replegados en sus guetos hicieron estallar el mundo de “los media”.

Porque no han sido las masas las que revolucionaron la comunicación, sino las “élites” dentro de la cultura mediática, increíble paradoja que amerita revisar muchas de las falacias sobre las que todavía seguimos pensando la comunicación, y si vale el oxímoron, son las vanguardias de los consumidores masivos los que transformaron la cultura mediatizada. Fueron ellos los que hicieron realidad los anuncios postergados de McLuhan: el medio es el mensaje; es cierto, lo es ahora cada vez más, con las redes sociales, con la implosión del aparato que dominó la segunda mitad del siglo pasado (el televisor), con el fin de las culturas nacionales que inventó la imprenta.

En el caso latinoamericano, las fechas parecen un reguero de pólvora: México 2015, Bolivia 2016, Panamá y Ecuador 2017, El salvador, Costa Rica y Brasil 2018, Colombia, Argentina12 y Chile 2019, Venezuela, Perú y Honduras 2020, Paraguay 2022, Cuba 2024. Cada uno a su modo irá apagando el “transmisor analógico”, bajando la palanca, reconfigurando sus antenas, para inaugurar un nuevo ciclo histórico.

¿Cuáles son las consecuencias de este cambio de paradigma tecnológico? La mayoría de los expertos resumen los beneficios de la digitalización en el ámbito audiovisual en una mayor disponibilidad del espectro radioeléctrico, el “dividendo digital” que genera la transferencia de las frecuencias analógicas al soporte digital, permitiendo en donde antes había una señal analógica que convivan 4 digitales; la interactividad que transformaría los usos de la televisión con la posibilidad de una mayor participación de las audiencias y la calidad de la transmisión con la llegada de la alta definición.

En muchos países este salto hacia la digitalización sembró de esperanzas las Políticas Nacionales de Comunicación, algo alicaídas desde al auge de la desregulación de la década del 90 del siglo XX en materia comunicacional y el avance incontenible de la televisión paga. La primera revisión de este proceso elaborado por Denis de Moraes, imbuido del tono épico que caracterizó el proceso en sus primeros años, sentaba las bases del decálogo de sus promesas:

“Se trata, por tanto de construir un sistema de comunicación que posibilite la democratización del acceso a la información, al conocimiento, a la tecnología. Que permita mayor control social a los medios bajo concesión pública. Que proteja la diversidad frente a la transnacionalización simbólica y beneficie a manifestación de voces ignoradas o excluidas de los canales mediáticos. Que favorezca la comprensión y la interpretación de los hechos de manera plural y abarcadora, evaluando los múltiples aspectos sociales, económicos, culturales y políticos involucrados”13.

Si bien hacer un balance es todavía prematuro si pretendemos que sea imparcial, lo cierto es que los dilemas inexorables de las Políticas Nacionales de Comunicación volvieron a reflejarse en aquel contexto. ¿Cómo hacer que las iniciativas fuertemente determinadas por el impulso de los ejecutivos nacionales latinoamericanos no repitan los verticalismos que se supone cuestionaban? ¿Cómo hacer para que una verdadera descentralización de la producción cultural audiovisual no caiga en un nuevo centro, de signo ideológico distinto, es cierto, cuando esas regiones no tienen todavía la suficiente autonomía para sostenerlas en el mediano plazo? ¿Cómo hacer para que los públicos, las audiencias, los consumidores, participen activamente en un contralor democrático de contenidos, sin caer presas de los facciones, de las pujas internas o las contradictorias demandas de pluralismo y centralismo político que caracterizan, muchas veces, estos procesos llamados populistas? Finalmente, ¿cómo articular las viejas y renovadas demandas de las Políticas Nacionales de Comunicación en el contexto de un mundo globalizado, donde las audiencias migran hacia nuevas plataformas, donde la vieja función de mirar televisión se ha trasformado de tal modo que algunos ya ponen en duda que pueda seguir llamándose receptores a los actores de aquellas prácticas?

La democratización de los medios en Argentina

En el caso argentino el inicio de las políticas en materia de digitalización audiovisual hay que complementarlas con el debate sobre la nueva ley de radiodifusión, inaugurada en mayo de 2008. La ley, fruto de un complejo proceso histórico, que se entronca con los primeros debates sobre políticas nacionales sobre comunicación con el inicio del proceso democrático (1983), fue el producto de varios factores concurrentes, algunos de ellos externos al contexto comunicacional. Uno, no menor, fue el llamado “conflicto con el campo” que puso en jaque el proceso hegemónico que venía desarrollando el gobierno nacional durante la presidencia de Néstor Kirchner (3003/2007), y que estalló apenas unos meses después de la elección de su sucesora, Cristina Fernández de Kirchner. Allí el ejecutivo nacional vivió la primera amenaza del poder mediático, lo que llevó al ex presidente y su mujer a desafiar a los grupos oligopólicos de la comunicación que se habían constituido con el menemismo, durante la década del 90.

En el prólogo al libro Medios en Guerra, de Guillermo Mastrini y Martín Becerra, María O´Donnell, la llamó “la madre de todas las batallas”. Un movimiento minoritario, con fuerte apoyo en las universidades nacionales y las radios populares y alternativas, había propuesto este debate a principios de 2004, con lo que se dio a conocer como “Los 21 puntos para una Radiodifusión Democrática”, conjunto programático de normas y políticas con un eje fuertemente marcado en la desconcentración de los medios, en una definida defensa de los medios de bajo alcance sin intereses de lucro, en los derechos de los informados y el respeto al pluralismo cultural e ideológico.

El gobierno vio allí la oportunidad de retomar la iniciativa y convocó a una gran consulta nacional sobre las comunicaciones. La primera reunión se produjo el 16 de abril de 2008 cuando la Presidenta recibió en su despacho a más de 60 representantes de la comunidad audiovisual (productores independientes, académicos de la comunicación, autoridades universitarias de las carreras formadoras de periodistas y comunicadores, dueños de medios de baja potencia, empresarios pymes del sector comunicacional). Allí se sentaron las bases de un programa de audiencias públicas para proponer la redacción de un anteproyecto de ley de radiodifusión. La presencia del entonces reciente interventor del COMFER, Gabriel Mariotto, y del secretario de comunicaciones, Pepe Albistur, dieron a la reunión el carácter de una decisión tomada y le otorgó a los anhelos de vastos sectores políticos un respaldo determinante.

Se avanzaba por primera vez con rumbo efectivo en reformular la ley sobre medios que había impuesto la dictadura militar en 1980 y la democracia parecía encaminada saldar otra de sus deudas. En marzo de 2009 se lanzaron los foros de consulta; más de 24 audiencias públicas a lo largo y ancho de todo el país fueron recogiendo las demandas y expectativas de las audiencias, de las organizaciones de la sociedad civil, de las universidades y sindicatos del sector, como así también de los pequeños empresarios de medios.

En agosto de 2009, la presidente envió el anteproyecto a la cámara de diputados y la norma fue sancionada el 10 de octubre de ese año. Por supuesto que el contexto de conflicto con el sector agropecuario fue determinante en el proceso inmediato de su sanción pero no hay que dejar de reconocer que la complicidad de los grupos mediáticos con las políticas socioeconómicas que gravitaron en los 90 fue también una justificación convincente.

Casi en simultáneo, el gobierno argentino, a través del Decreto 1148/2009, crea el Sistema Argentino de Televisión Digital Terrestre, a través del cual se adopta la norma ISBD-T y se establece un plazo de 10 años para alcanzar la transición de lo analógico a lo digital. A partir de este decreto se desarrollaron una serie de iniciativas complementarias que marcarán los primeros 5 años el desarrollo de la televisión digital en la argentina, que, como mencionamos en su momento, estuvo signada por esta coyuntura de conflicto con los grupos concentrados de comunicación o que ejercían una posición dominante14.

Por un lado el Gobierno Nacional comenzó y desarrollo una fuerte inversión tecnológica para dar cobertura a la televisión digital en todo el territorio nacional. De este modo, a través de la empresa INVAP15, se instalaron más de 80 antenas (Estación Digital Terrestre) que permitieron alcanzar la cobertura del 85 % del territorio nacional16. Estas antenas son acompañadas por un “shelter” que integraba la recepción de contenidos por vía terrestres (fibra óptica GTS), un sistema irradiante tipo panel para 8 transmisores, transmisión según norma ISDB-Tb de 1 kw rms, mínimo 4 Tx, una torre arriostrada de altura máxima de 150 metros, monitoreo y operación remota desde centro de control, sincronización por GPS y autonomía de operación ininterrumpida (UPS y grupo generador). Las estaciones se complementaron con la entrega de receptores (1.200.000), cerca de 5.000 antenas digitales en parajes rurales, y en escuelas rurales y de frontera.

En segundo lugar, el impulso otorgado a los canales públicos existentes en el interior del país, en el que se articularon políticas de reconversión tecnológica, subsidios a la producción y una promoción de instancias de coordinación y participación interjurisdiccional tendiente a la recuperación de un federalismo largamente olvidado. Es importante señalar aquí, para contextualizar a los lectores no argentinos, que entre otras consecuencias de las políticas neoliberales de los años 90 en el campo audiovisual, este proceso favoreció la concentración mediática que provocó la desaparición de un sinnúmero de canales locales de televisión, habiendo quedado a salvo del proceso únicamente los canales públicos provinciales, sostenidos por el Estado. El proceso de reconversión tecnológica tuvo como punta pie inicial el otorgamiento de los Centros Públicos de Producción Audiovisual17, la constitución del Consejo Federal de Televisión Pública integrado por los 14 canales de televisión, 12 provinciales y dos universitarios (Universidad Nacional de Córdoba y Universidad Nacional de La Plata). En ese marco, el Ministerio de Planificación Federal, Inversión Pública y Servicios firmó un acuerdo para subsidiar proyectos de producción en el marco del Plan Operativo de Promoción y Fomento de Contenidos Audiovisuales Digitales, por el cual se financiaron ciclos de programas de piso, de formato magazine. Estos ciclos estuvieron supervisados por la Gerencia de Contenidos Audiovisuales para Televisión del Instituto de Nacional de Cine y Artes Audiovisuales, de reciente creación18.

La tercera iniciativa fue el otorgamiento de frecuencias de televisión a las universidades nacionales. Esto fue producto de Resolución 687 del 2011, de AFSCA, en el cual se otorgan a las universidades nacionales en el espectro UHF frecuencias de Televisión Digital. De este modo se aplica el artículo 145 de la nueva ley de Servicios de Comunicación Audiovisual. Si bien la ocupación del espectro fue complejo para la mayoría de las universidades, en los primeros tres años se inauguraron el canal de la Universidad Nacional de La Plata (TV Universidad), el canal de la Universidad Nacional de Cuyo, Acequia, en marzo del 2013 y el canal de la Universidad Nacional de Tres de Febrero a mediados de 2013. Desde entonces, progresivamente se han ido desarrollando los diversos proyectos de televisión universitaria, en algunos casos, como el del Conurbano, constituyéndose consorcios entre 3 o más universidades para administrar la señal de manera conjunta.

Una cuarta iniciativa fue el impulso y promoción a través del Ministerios de Planificación Federal, Inversión Pública y Servicios de un programa de fortalecimiento de las capacidades productivas en el campo audiovisual. El Programa Polos Audiovisuales Tecnológicos, conformó así en una iniciativa de participación social, articulado en las Universidades Nacionales, que intentó promover la producción federal, la articulación de las capacidades instaladas, la descentralización de la producción de contenidos, la creación de polos que integraran un vasto campo de profesionales. El programa dividió el país en 9 regiones, con una cabecera en cada una de ellas, sobre la base de una metodología participativa de empoderamiento. El programa tenía diversas líneas de trabajo: líneas de capacitación, líneas de promoción y producción, líneas de asistencia técnica, con fondos públicos, y con el objetivo de potenciar a los productores asociados a los canales locales ya existentes o a los que habrían de nacer en el proceso. El programa fue coordinado por una conocida referente dentro de la producción audiovisual argentina, Eva Piwowarsky, vinculada al movimiento Cine Liberación de los años 70. El programa presentó los problemas típicos de estos vastos emprendimientos: generación de expectativas excesivas, dificultad en los proceso de concreción de resultados, gran movilización de voluntades, formas incipientes de asociativismo, dificultades administrativas y de gestión determinadas por las largas distancias geográfica que se pretendieron abarcar, horizontalismo democrático cruzado de las luchas políticas en los territorios, dificultades para comprender la dinámica particular de la industria audiovisual. Los resultados dispares de la experiencia tuvieron un primer resultado con la producción de un primer ciclo de 90 horas, producidas por las Universidades Nacionales en articulación con los productores independientes, estudiantes de cine y televisión, sindicatos, artistas independientes, periodistas, etc.; desarrollo de un número significativo de programas pilotos que se articularían a las señales existentes y asignación en comodato de CEPAS.

En quinto lugar, en marzo de 2015, luego de un largo y lento proceso de diagnóstico del espectro, se convocó al primer concurso para cubrir 82 nuevas frecuencias de televisión digital19, en 8 regiones, a lo largo de todo el país, tanto de baja como alta potencia, con y sin fines de lucro. Esta convocatoria reemplazaba la fallida de 2011 que se dio por abortada en el proceso licitatorio de compra de pliegos y tuvo características inéditas: hace mas de 40 años que no había convocatorias de este tipo para nuevas señales de televisión, sobre las 45 que había en la Argentina, contando dentro de ellas, más de 15 señales públicas.

Sin embargo, el vertiginoso y turbulento proceso iniciado en 2008, concluyó a principios de 2016, cuando el nuevo presidente electo, Mauricio Macri, derogó por decreto la Ley de Servicios de Comunicación Audiovisual, dando por concluido de hecho uno de los procesos más ricos y conflictivos que se hayan vivido en Argentina en el campo de las comunicaciones. ¿Por qué fue tan fácil al nuevo gobierno cerrar esta etapa?¿Qué había pasado entre octubre de 2009 y diciembre de 2015, como para que aquello que había comenzado con tanto ruido político y cultural se diluyera casi como una sombra contra el fondo de la derrota electoral del kirchnerismo en aquel año 2015?

Si bien todavía estamos cerca de los hechos, hay dos observaciones que podemos señalar aquí. Por un lado, como señalan Mastrini y Becerra,

“la política de comunicación del kirchnerismo se estructuró en un discurso que promovía las posibilidades de una esfera pública más diversa, con límites a la concentración de la propiedad. Un déficit que se aprecia al analizar los resultados de las políticas del período es su escasa capacidad de trasladar las regulaciones a una real reestructuración de los mercados de medios. Una explicación plausible es que estos procesos demandan más tiempo que los deseados por los tiempos políticos. Otro aprendizaje que deberá realizarse es que el proceso posterior de implementación de políticas es tan o más significativo que el establecimiento de la ley. La energía política del gobierno pareció agotarse con la sanción de la ley y en la pelea con Clarín”20.

El otro factor que sin dudas influyó en el proceso de desgaste fue la transformación paralela que se producía en los consumidores, cuando en el mismo contexto pasaban de formas analógicas de consumo a las digitales. La conectividad masiva, las nuevas plataformas de consumo audiovisual, la expansión de las redes, los portales de noticias online, volvieron obsoleta una discusión por “los fierros” que las audiencias superaban con su digitalización.

Breve digresión sobre el receptor.

Sin lugar a dudas la tentación de la tecnología es difícil de dominar, más para los gobiernos. Y todos los oficialismos se enamoran de los “fierros” con las consecuencias esperables: baja audiencia, reiteración del discurso oficial, baja credibilidad de los enunciadores, más propaganda que información. Sucede así lo que sucede muchas veces, los medios son pensados como aparatos tecnológicos todopoderosos sin reconocer su dimensión clásica de instituciones sociales que se legitiman en una idea y vuelta con los públicos con los que interactúan.

Podríamos preguntarnos, con cierta malicia, si los funcionarios no se olvidaron que hace mucho tiempo el control remoto lo tiene la gente. Fenómenos como los youtubers, el crecimiento exponencial del consumo audiovisual a través de plataformas online, la aparición de la transmedia, los hábitos de los fans y bloggers que han instituido otro tipo de vínculo con las tecnologías de información y comunicación, muestran cuánto ha cambiado el territorio de los medios y en especial ese sujeto que día a día, en nuestras sociedades, se conecta con ellos. Ya hace tiempo que pusimos en duda que pudiéramos seguir denominándolo “receptor”. ¿Acaso no sería útil reconstruir su genealogía para desde esa historización poder reconceptualizar sus funciones actuales, su identidad contemporánea? Porque una historia de este concepto puede ayudar mucho a avizorar los interrogantes futuros.

Así, la primera versión del receptor la tenemos en el trabajo pionero de Harold Laswell sobre la comunicación en tiempos de guerra; se sumó a aquella primera versión, los trabajos de los matemáticos de la información: Wiener, Shannon. ¿Qué caracterizaba aquellas visiones? En principio un conductismo psicológico pavloviano cargado con el determinismo que habían producido los totalitarismos. El segundo momento del receptor lo aportó la sociología de la comunicación norteamericana: “El pueblo elige” de Paul Lazarsfeld cuestionó aquella primera omnipotencia y las teorías de los dos pasos y los límites de su influencia convirtieron por primera vez a los oyentes (la radio estaba entonces en el centro de la escena) en sujetos con cierta autonomía. Los 600 pobladores consultados en Ohio lo atestiguaban en plena segunda guerra mundial.

Desde la otra orilla del atlántico también se pergeñaba el asunto, los grandes críticos de la cultura, Adorno y Horkheimer, señalaban ahí también el defecto de un receptor atomizado por la sociedad, un reproductor alienado de la ideología dominante, un consumidor de mercancías ahora manufacturadas para el ocio. Etnocentrismo cultural lo llamó Jesús Martín-Barbero: fue la traducción ideologizada de la cultura de masas como degradación cultural. En Latinoamérica, de algún modo, este receptor fue el de Armand Mattelart y Ariel Dorfman cuando interpretaron en esa clave al Pato Donald desde las categorías althuserianas. La ideología que, como un virus, se infiltra en la subjetividad hasta producir incluso nuestros sueños. Esa fue la guía, incluso para otro latinoamericano, Antonio Pasquali, en Comunicación y Cultura de Masas.

Para alcanzar un concepto menos conductista tuvimos que esperar Eliu katz. Deseos, pulsiones, inquietudes, necesidades, aparecen en el campo de estudio como variables a considerar. El receptor podía ser también un lector, un lector crítico, un actor social que negociaba en el contexto de la transición entre la cultura obrera de sus orígenes y la cultura de masas que lo interpelaba como consumidor. Son los años 50 en Inglaterra y una corriente de especialistas en literatura, comienzan a experimentar en esa encrucijada. Richard Hoggart publica en 1957 el paradigma que fundará los Estudios Culturales, en una visión menos esquemática, más compleja, atenta a los préstamos, las negociaciones y los conflictos de las clases populares en este proceso hegemónico de cambio social. Stuart Hall observa entonces que las lecturas puede ser disimiles. Las llama dominantes, negociadas o resistentes. Así el funcionalismo cae en desuso e ingresamos de lleno a la lectura crítica de la cultura. Ya no nos interesamos por los efectos y nos preguntamos qué hace la gente con los medios.

En el ámbito latinoamericano se producen dos grandes rupturas epistemológicas: la de las mediaciones reflejada por la obra de Jesús Martín-Barbero y la del consumo que desarrolla el antropólogo argentino Néstor García Canclini. Son los años 90. El auge del neoliberalismo pone en jaque las teorías lineales, manipulatorias y el receptor aparece con una fuerza crítica, actores sociales de una trama cultural compleja y en disputa, las comunicaciones sociales son así escenario de la hegemonía, de la lucha por la hegemonía y de la disputa por los sentidos de los social, atravesado por conflictos de poder. El consumo no es sólo reproducción y la recepción es una instancia de mediatización, conflicto cultural y negociación de intereses y significados. En clave socio-histórica estos dos pensadores inscribieron correctamente la lectura de la cultura en la modernidad y las complejas destemporalidades en las que se constituyó esta experiencia en América latina. ¿Hasta qué punto constituidos por sus influjos, liberados por sus mandatos, nos resistimos a subordinarnos a sus designios? Este conflicto reverbera aún hoy con otros medios, con otros dispositivos tecnológicos, de modos tan acuciantes como entonces.

Finalmente, en los años primeros del nuevo siglo, la comunicación sufre este tsunami digital. Lo virtual se apodera de las masas. Las despedaza, las fragmenta, las disloca, las desterritorializa hasta lo inimaginable. El mundo se hace pequeño como el Aleph borgeano y todo muta. Internautas, navegadores, nativos digitales, prosumidores, son varias las categorías que tratan de asirlos. Lo cierto es que nuestra relación con los medios ya es distinta, y los medios también. Blogers, fans, youtubers, estamos siendo hipermediatizados. Y las tecnologías ya han construido otra sensibilidad en nosotros, otro modo de ser, como sugirió Martín-Barbero. Casi va quedando en el recuerdo el proceso de audienciación que a fines de los 90 prefiguró Guillermo Orozco Gómez, aunque no así lo que intentaba pensar con aquella categoría: la mediatización definitiva de las prácticas sociales.

Conecto ahora estas dos cuestiones: el desarrollo inexorable de una nueva plataforma de consumo audiovisual y el desarrollo definitivo de otro tipo de receptor. Lo llamamos prosumidor, lo llamamos internauta, lo llamamos bloggers, no lo sabemos. Lo cierto es que avanzan, como sugiere Martín Becerra, los usos disruptivos de lo audiovisual. Hay una transmedialidad que crece imparable: será difícil para las sociedades reconceptualizar estas demandas, estos procesos, sin que aceptemos reconfigurar las categorías con las que pensamos las mediaciones entre las viejas audiencias y la tecnología. De ahí que las Políticas Nacionales de Comunicación que sigan ancladas en el paradigma mediocéntrico quedará inexorablemente obsoletas incluso cuando tengan éxito. Hay un destiempo. Michel Serrés la describió como Pulgarcita, en alusión a esos jóvenes que en la calle, en las aulas, en los medios de transporte, en sus cuartos, reconcentrados miran y escriben con sus pulgares con la velocidad del rayo sobre sus celulares. Jesús Martin-Barbero cuestiona que nosotros hablamos de televisión y las nuevas generaciones se sumergen en el celular, sus usos cotidianos vinculados a las inseguridades de nuestras sociedades y de los lazos afectivos y lúdicos que se juegan a través suyo. La pregunta entonces habría que dirigirla hacia dónde poner el acento de las políticas nacionales de comunicación en este contexto. Uno se pregunta: ¿hacia los emisores o hacia los receptores? Ya está más que claro que el mediocentrismo es obsoleto. Lo demuestran como saltan las fronteras en los más impensados territorios los ciudadanos cuando ven cercenada su capacidad de conectarse, de producir sentido. Hipótesis tentativa: ¿no será el espacio de la escuela, aquel primer contacto con el conocimiento sistematizado donde los niños se encuentran con el mundo, un lugar propicio para comenzar este nuevo viaje? Segunda hipótesis. La filosofía postoperaista desde Virno y Negri en adelante viene insistiendo sobre la profunda transformación del capitalismo postfordista y la constitución de una dimensión nueva, afectiva, simbólica, cultural, del trabajo. Sus reflexiones sobre el trabajo inmaterial vienen señalando un horizonte que advierte sobre las profundas consecuencias de esta mutación. ¿No será hora que comenzamos a interrogarnos sobre el “trabajo” con los medios?

1 Lorente, Patricio, El conocimiento hereje, la historia de wikipedia, Paidós, 2019, Buenos Aires, Argentina.

2 Becerra, M., (2003), Sociedad de la información. Proyecto, convergencia divergencia, Buenos Aires, Argentina, Grupo Norma.

3 Uno de los primeros textos en el que se realizó un balance del proceso, muy cerca de los eventos en curso, fue el producido por Guillermo Mastrini y Bernardette Califano, Sociedad de la Información en la Argentina. Políticas públicas y participación social, editado en 2006, por la Fundación Ebert, que recoge gran parte de las ponencias de una serie de encuentros que se realizaron en Buenos Aires en 2005.

4 Marcelo Pedrich, “La sociedad de la información en Argentina: e-contenidos”, ibidem, pág. 44.

5 Jenny Marcela Sánchez-Torres, María Paloma Sanchez Muñoz y Mayda Patricia González-Zabala, “La sociedad de la información: génesis, iniciativas, conceptos y relación con las Tic”, UIS Ingenierías, Volumen 11 No 1, pág. 113-128, junio 2012.

6 Becerra, M., ibidem, pág. 72.

7 Bernardette Califano, “La Cumbre de las (precarias) soluciones”, en Sociedad de la Información en Argentina, ibidem.

8 Lash, S.,(2005), Crítica de la información, Buenos Aires, Argentina, Amorrortu.

9 Huergo, J.,(1999), Cultura escolar/cultura mediática/intersecciones, Bogotá, Colombia, Universidad Pedagógica Nacional.

10 Cualquier referencia a la pandemia de Covid-19 que hoy atravesamos no es pura coincidencia. Aunque escrito por Martín-Barbero todavía en el siglo XX, esta observación cobra todavía más valor.

11 Doueihi, Milad, La gran conversión digital, 2010, Fondo de Cultura Económica, Buenos Aires, Argentina.

12Por resolución del Enacom Argentina postergó su apagón analógico para el 2021.

13 De Moraes, D., (2011), La cruzada de los medios en América Latina. Gobiernos progresistas y políticas de comunicación, Buenos Aires, Paidós.

14 Entre las empresas que ejercen en argentina una posición dominante hay que destacar al Grupo Clarín, que además tuvo luego de la sanción de la Ley de SCA (26. 522) una decidida actividad dilatoria sobre su aplicación a través de medidas cautelares. Estas medidas recién fueron resueltas por la Corte Suprema de Justicia de la Nación en 2013 a través de un fallo que resolvió su constitucionalidad.

15 INVAP Sociedad del Estado es un empresa argentina destinada a la alta tecnología dedicada al diseño , integración y construcción de plantas equipamientos y dispositivos en áreas de alta complejidad como energía nuclear, tecnología espacial, tecnología industrial, equipamiento médico y científico (wikipedia, 22 de abril 2015)

16 Estaciones Digitales de Transmisión. Son actualmente 82, cubren el 85 % del territorio nacional. (fuente tda.gob.ar 15 de abril 2015.)

17 Los Cepas fueron un set de equipamiento compuesto por cámaras digitales, editoras, luces, switcher, pack de sonido, pantallas, de tecnología digital que se entregaron a los canales públicos y a las universidades. Hasta el año 2013 se habían entregado 24 en total.

18 Durante el año 2012 fueron 6 los canales públicos que desarrollaron los Programas de Piso, con un financiamiento de 900.000 pesos. En el caso del canal de la Universidad Nacional de La Plata, el proyecto se llamó Plaza 56 y estuvo al aire 7 meses desde octubre 2012 a mayo 2013.

19 Resolución 39/2015 Autoridad Federal de Servicios de Comunicación Audiovisual

20Becerra, M. y Mastrini, G., (2017) Medios en guerra. Balance, crítica y desguace de las políticas de comunicación 2003-2016, Ciudad Autónoma de Buenos Aires, Argentina, Biblos, pág.16.

Bibliografía:

Lean el texto de Martín Becerra Sociedad de la información: proyecto, convergencia, divergencia, Grupo editorial Norma, 2003.

También puede gustarle...