Divulgación 2.0

GenteOrdenador
GenteOrdenador

La definición de inteligencia es ciertamente porosa: en realidad hay diversos tipos de inteligencia y, en consecuencia, hay actividades que cultivan unas facetas de la inteligencia y desatienden otras. Después de leer a dos autores de opiniones diametralmente opuestas sobre cómo Internet está afectando a nuestra inteligencia, no puedo por más que darle la razón a ambos. Aunque superficialmente parezca que opinen justo lo contrario, lo que en verdad ponen de manifiesto es que Internet nos hace cada vez más inteligentes, pero también cada vez más tontos. Todo depende del tipo de inteligencia que decidamos medir.

Los dos autores a los que me refiero son el experto en semiótica de la Universidad de Brown Steven Johnson y el divulgador científico y finalista del Premio Pulitzer en 2011 Nicholas Carr. A juicio de Johnson, la cultura de masas, es decir, la cultura que se transmite popularmente, sobre todo a través de la televisión, los videojuegos e Internet, está incrementando su complejidad progresivamente, lo que lleva a que determinadas áreas de nuestra inteligencia se vean estimuladas hasta límites jamás alcanzados antes. Es lo que Johnson denomina la «curva del dormilón». Este aumento de complejidad de la cultura popular es inevitable y cada vez es más veloz, debido fundamentalmente a tres factores interrelacionados: los apetitos naturales del cerebro (el conocimiento es adictivo), el sistema económico de la industria cultural (los productos deben tener varias lecturas y ser complejos a fin de que el consumidor decida adquirir el producto para revisionarlo a menudo por diferentes vías) y las plataformas tecnológicas en evolución.

JohnsonyObra
© Flickr
Per a Johnson, aumento de complejidad en la cultura de masas hace que nuestro coeficiente intelectual esté aumentando generación tras generación. En la imagen, Steven Johnson, experto en semiótica de la Universidad de Brown, y portada de su libro Cultura basura, cerebros privilegiados (Roca editorial, 2011).

Por ejemplo, basta echar un vistazo a la clase de series de televisión que se emitían antes de 1980 y las que se emiten actualmente. Canción triste de Hill Street fue la primera serie que incrementó sus líneas narrativas y su complejidad estructural, provocando que muchos telespectadores quedaran abrumados. Ahora, series como Perdidos o Los Soprano han convertido a Canción triste de Hill Street en un producto perfectamente digerible e incluso naïf.

Por supuesto, Internet no ha hecho más que acelerar estos procesos: torrenciales cúmulos de información a golpe de clic en entornos con cada vez más opciones que no dejan de hacer más profunda la brecha que separa los inmigrantes digitales de los nativos digitales. Para Johnson, incluso, este aumento de complejidad en la cultura de masas es el principal motivo de que se manifieste lo que se conoce como el «efecto Flynn», es decir, el supuesto de que nuestro cociente intelectual está aumentando generación tras generación.

En lado contrario se encuentra la tesis de Nicholas Carr, que sostiene que las nuevas tecnologías de la información como Internet están debilitando nuestra inteligencia crítica, obligándonos a ser cada vez más superficiales, a acumular información cada vez más fragmentada, menos organizada y menos profunda. Aunque leemos y escribimos más, resulta menos frecuente que leamos con atención sostenida un libro de 200 páginas de principio a fin, sin distracciones.

Ventajas y desventajas de la divulgación a través de Internet

Todas las ventajas que ofrece Internet tanto a los científicos como a los divulgadores o popularizadores de la ciencia son más que evidentes. Por de pronto, disponemos de un acceso más sencillo a una mayor fuente de información fácilmente escrutable. Millones de personas pueden crear, pero también millones de personas critican, editan o modifican lo que se escribe. Wikipedia, Flickr o WordPress eran inimaginables antes del advenimiento de la Red. Ya no digamos herramientas específicas de la investigación científica, como Medline, el buscador estándar de artículos y trabajos académicos en medicina, el acceso abierto a los artículos de las revistas académicas de la PLoS (Public Library Of Science), el podcast del CERN o los archivos de vídeo de innumerables conferencias, charlas y congresos. En definitiva, es indudable que la revolución digital ha transformado la creación, almacenamiento y transferencia de conocimiento científico.

Pero las ventajas son tan evidentes y espectaculares que pueden eclipsar las desventajas, que también están presentes e influyen no solo en la información que consumimos y producimos sino también en la forma en que lo hacemos. (Recordemos: Johnson tiene razón, pero también la tiene Carr).

Como ya sugirió Mcluhan, el medio también modela el proceso de pensamiento. La Web, pues, nos ofrece más información pero simultáneamente debilita nuestra capacidad de concentración y análisis profundo. Ahora leemos más que nunca entradas cortas llenas de imágenes, hipevínculos y vídeos. Pero cada vez nos cuesta más leer Guerra y paz. Tal y como refiere un estudio realizado por la consultora de negocios nGenera (Tapscott, 2008) sobre los efectos de Internet entre los jóvenes: «Ya no leen necesariamente una página de izquierda a derecha y de arriba abajo. Puede que se salten algunas, buscando información pertinente».

Esto no pretende ser una sentencia neoludita: aunque muy útiles para alimentar nuestra curiosidad, los hipervínculos fragmentan un texto largo y complejo. Leer hipertextos no es como leer texto plano. El hipertexto incrementa sustancialmente nuestra carga cognitiva y, por ende, debilita la capacidad de comprender y retener lo que se lee, tal y como sugieren diversos estudios, como Rouet y Levonen (1996) o Miall y Dobson (2001). Los hipervínculos no ejercen en nosotros los mismos efectos que las notas a pie de página o las citas, como señala el propio Carr (2010: 115):

Los enlaces no solo nos guían a las obras relacionadas o complementarias, sino que más bien nos invitan a pulsarlos. Nos incitan a abandonar cualquier texto en el que pudiéramos estar inmersos en lugar de dedicarle una atención sostenida.

La experta en lectura Maryanne Wolf también se pregunta si, frente a las imágenes, sonidos e hipervínculos que aparecen en un texto en pantalla, empezará a cambiar y a atrofiarse el componente constructivo que anida en la esencia de la lectura y si habrá tanto tiempo para procesar la información de manera tan deductiva, analítica y crítica como hasta ahora (Wolf, 2008).

A una menor cuota de concentración y paciencia para profundizar en temas complejos, hay que sumarle también una menor originalidad o heterodoxia en la propia divulgación y hasta en la investigación científica. La mayoría de divulgadores de la red se siguen unos a otros, y ello, inevitablemente, mimetiza ciertos contenidos o incluso tendencias. Lo que sugiere un estudio publicado por el sociólogo de la Universidad de Chicago James Evans en la revista Science es que este efecto también influye en el progreso de la investigación científica (Evans, 2008). Tras reunir en una base de datos 34 millones de artículos académicos publicados en revistas científicas desde 1945 hasta 2005, Evans señala que las herramientas de filtrado automatizado de la información, tales como los motores de búsqueda, tienden a servir como amplificadores de la popularidad, creando rápidamente, para luego reforzar continuamente, el consenso acerca de qué información es importante y cuál no lo es. Es decir, que la antigua investigación sin el apoyo de Internet era mucho menos eficiente, pero traía aparejadas algunas ventajas, como la probabilidad de explorar caminos intelectualmente poco transitados.

El pez que se muerde la cola (digital)

En resumidas cuentas, la divulgación 2.0 ofrece ventajas y desventajas que se retroalimentan mutuamente. Por un lado, Internet incentiva el hambre de saber, sobre todo de novedades o informaciones que nos causen sorpresa. Por el contrario, Internet también devalúa la calidad de lo que aprendemos o, al menos, la forma en que lo aprendemos. Cuanto más hambre de saber se incentiva, el anhelo por consumir datos más anecdóticos y superficiales también parece incrementarse. Y así sucesivamente, como un hámster en la rueda giratoria de una jaula de dopamina.

A todo ello debe sumarse que el tiempo empleado en publicaciones impresas como periódicos, revistas y libros en detrimento de la lectura en entornos digitales cada vez es menor, incluso por parte de académicos. En junio de 2011, el informe PISA de la Organización para la Cooperación y el Desarrollo Económico (OCDE) presentó los resultados de su evaluación de las destrezas de alumnos de quince años en lectura digital, es decir, sus habilidades para tareas como jerarquizar información o construir nuevos conocimientos a partir de lo leído. Los resultados sugerían un dato muy llamativo: un uso moderado del ordenador es el que garantiza mejores resultados, mejores que los de los que emplean mucho o casi nada el ordenador (El País, 2011). Paralelamente, la V Encuesta de Percepción Social de la Ciencia realizada por la Fundación Española para la Ciencia y Tecnología (FECYT) señalaba que Internet está dando pasos de gigante en la divulgación de la ciencia, y que, entre los menores de 34 años, es el medio principal para informarse sobre ciencia.

Así pues, siendo irreversible esta migración hacia ámbitos digitales, tal vez se imponga cierta reserva al hecho de que ahora todo parezca positivo (hay más información y podemos acceder a ella más libremente que nunca). También deberíamos empezar a ofrecer una formación específica para leer las diversas modalidades de texto que se avecinan, mayormente descontrolado y jalonado de continuas interrupciones que apelan precisamente a nuestra hambre de saber más. Paralelamente, también parece urgente la creación de una especie de inteligencia emergente o artificial que actúe como guía del lector, un orientador a fin de que no naufraguemos ante la avalancha de inputs y de que no se acaben cumpliendo los temores que ya Sócrates trasladó en Prótagoras para referirse a los piensan «igual que los rollos de papiro, incapaces de responder a tus preguntas o de preguntarse a sí mismos.»

Bibliografía
Carr, N., 2010. Superficiales. Taurus. Madrid.
El País, 2011. «A los alumnos españoles se les atraganta la lectura digital». El País.
Evans, J. A., 2008. «Electronic Publication and the Narrowing of Science and Scholarship». Science 321: 395-399.
Goldacre, B., 2011. Mala ciencia. Paidós. Barcelona.
Johnson, S., 2011. Cultura basura, cerebros privilegiados. Roca Editorial. Barcelona.
Miall, D. S. y T. Dobson [eds.], 2001. «Reading Hypertext and the Experience of Literature». Journal of Digital Information, 2, núm. 1.
Rouet, J. F. y J. J. Levonen, 1996. «Studying and Learning with Hypertext: Empirical Studies and Their Implications». In Rouet, J. F, Levonen, J. J., Dillon A. y R. J. Spiro [eds.], 1996. Hypertext and Cognition. Erlbaum. Mahwah (Nueva Jersey).
Tapscott, D., 2008. «How to Teach and Manage “Generation Net”», BusinessWeek Online.
Wolf, M., 2008. Cómo aprendemos a leer. Ediciones B. Barcelona.

Sergio Parra Castillo. Escritor y editor de XatakaCiencia.
© Mètode 2011.

 

© Heku. morgueFile
Internet nos hace cada vez más inteligentes, pero también cada vez más tontos. Todo depende del tipo de inteligencia que decidamos medir

 

«Internet incentiva el hambre de saber, sobre todo de novedades o informaciones que nos causen sorpresa. Pero, también devalúa la calidad de lo que aprendemos o, al menos, la forma en que lo aprendemos»

 

 

 

 

 

 

 

«A juicio de Johnson, la cultura de masas está incrementando su complejidad progresivamente, lo que lleva a que determinadas áreas de nuestra inteligencia se vean estimuladas hasta límites jamás alcanzados antes»

 

 

 

 

 

Carr
© Flickr
En la imagen, Nicholas Carr, divulgador científico y finalista del Premio Pulitzer en 2011.

«Para Nicholas Carr las nuevas tecnologías de la información están debilitando nuestra inteligencia crítica, obligándonos a acumular información cada vez más fragmentada, menos organizada y menos profunda»

 

 

 

«Los motores de búsqueda tienden a servir como amplificadores de la popularidad, creando rápidamente, para luego reforzar continuamente, el consenso acerca de qué información es importante y cuál no lo es»

 

 

 

portada-superficiales

Portada del libro de Nicholas Carr, Superficiales (Taurus, 2010).

«Parece urgente la creación de una especie de inteligencia emergente o artificial que actúe como guía del lector»

 

 

 

«La mayoría de divulgadores de la red se siguen unos a otros, y ello, inevitablemente, mimetiza ciertos contenidos o incluso tendencias»

© Mètode 2011

Periodista y divulgador científico. Coordinador de Xatakaciencia, Barcelona.