Los sitios -y plataformas- de redes sociales y sus peligros

Hace días que vengo pensando en eso que he comentado en este mismo blog sobre la necesidad de revisar los usos que las personas dan a las plataformas -y sitios- de redes sociales en particular y de internet en general. Esta necesidad va siendo aún más imperiosa con el paso de los días en un contexto en el que cada vez es mayor el uso de la presencia pagada en internet para la fomento, generación y difusión de tendencias entre los usuarios de esta tecnología.

Los sitios -y plataformas- de Redes Sociales y las tendencias entre los usuarios.

Días atrás comentaba en una conversación informal mi particular convicción de que no hay tantas personas con determinados gustos como se nos quiere hacer creer desde los distintos medios de comunicación de marketing. Analicemos el caso del público consumidor de, por ejemplo, revistas del corazón. Creo que según sea el entorno en el que nos desenvolvemos, podemos llegar a la conclusión de que interesarse por el quehacer diario de los actores y actrices norteamericanos llamados a sí mismos “estrellas de cine” es algo que es genuinamente humano, es decir, inherente a todos y a nuestro espacio-tiempo. Sin embargo, creo que eso no es más que una creencia, infundada además, pero bien sustentada en la información que a diario recibimos por, por ejemplo, la televisión y la prensa escrita, internet o la  misma radio. Igual ocurre, por ejemplo, con la información bursátil: ¿A cuántas personas que conozcamos les interesa -realmente- la información bursátil? Creo que buena parte de nosotros diría que a muy pocos. Sin embargo, prácticamente todos los noticieros de televisoras internacionales dedican un espacio -en tiempo de locutores o a través de los generadores de caracteres- para “informarnos” sobre el estatus de una suerte de “mercado” que para muchos es mera ficción.

Hoy día que la integralidad entre las distintas aplicaciones de la llamada Web 2.0 (Twitter, Blip, Last.fm, Delicious, Meneame, Facebook, lectores de Feeds y otros) es un hito hacia el que se avanza de modo indetenible. Este hecho, creo que día con día lo veo de un modo más claro, no ocurre de forma desinteresada o, al menos, sin un propósito claramente visto por intereses corporativos. Los tuertos del grupo casi siempre acaban viendo antes aquello que los ciegos, aún teniéndolo enfrente, no llegan a olerlo.

De modo que la integralidad, casi de forma indetenible, parece conducirnos también a un ciclo en el que acabamos nutriendo de modo ciego un sistema de establecimiento programado de tendencias de consumo. Recibimos anuncios en nuestros mails, en Facebook se nos difunde -casi de modo virulento- determinadas aplicaciones, anuncios, videos o ideas, del mismo modo se difunde a través de blogs -no puedo negarlo- tendencias, opiniones, posiciones que son dadas por ciertas, porque mientras más personas vean un blog, por ejemplo, más “autoridad” tiene esa persona para decir y diseminar aquello en lo que piensa. Rumores, noticias, patrones de uso, patrones de consumo, opiniones … son difundidos últimamente de un modo mucho más veloz y nervioso, “gracias” a las plataformas y sitios de redes sociales.

El tema del uso de internet pareciera entonces obedecer a una pregunta, si se quiere, anterior y que tiene que ver con las capacidades mismas de los individuos para trascender a su caracter individual y adherirse a un quehacer colectivo distinto al borreguismo del consumo guiado, y la generación de esas capacidades a través de procesos de formación del ser humano.

Reblog this post [with Zemanta]

Spree y las comunidades de Expertos

Spree se anuncia como una comunidad de intercambio de conocimiento y antes hemos dicho aquí que esta aplicación es un modo de mostrar al social networking. El mecanismo de funcionamiento es, fundamentalmente, la vinculación de distinas personas -expertos- que dialogan en tiempo real haciéndose unos a otros preguntas sobre tópicos varios los cuales son respondidos por cada uno de los expertos en función de sus conocimientos.

De este modo, se anima a los miembros de Spree a que se unan formando comunidades en función de los distintos tópicos de sus preguntas enriqueciendo con ello al conjunto mismo de la base de conocimiento de Spree buscando en esencia generar una base de conocimiento en torno a aquellos temas cuya información no se encuentra en internet, vinculando cada pregunta a un experto con conocimiento en el área.

El hecho de que este proyecto otorge “sentido” y contenido a la conformación de redes sociales asistidas por ordenador (léase social networking), algunas de sus funcionalidades inflaman de entusiasmo pese a su incipiente desarrollo. Es el caso de la de visualización de la red de Spree a través de varias opciones y siempre partiendo de un gráfico estrella.

Si la anterior imagen resulta emocionante (:D) esperen a ver esta que es el detalle de las preguntas hechas en el tópico “computers”:


Quizás el mayor atractivo que tiene este proyecto actualmente es el ser OSP (Open Source Project) lo cual posibilita, en mucho, que cosas como el idioma dejen de ser en breve un obstáculo para ampliar la comunidad Spree a lo largo y ancho del mundo. Definitivamente, una sabrosa herramienta para impulsar la conformación y mantenimiento de redes de conocimiento en pequeño y en grande, e incluso, para incorporar a programas de aprendizaje de valores sociales como la colaboración en la apropiación de conocimiento.

Procomun

Internet como procomún

Tomado de Juan Freire

En Soitu.es | Piel digital he introducido la idea de Internet como procomún, un concepto ubícuo pero, creo, insuficientemente valorado (especialmente en el ámbito de las decisiones políticas).en lo que respecta a su propia complejidad como “bien” y a las consecuencias culturales, sociales y económicas de sus características. Este post es en realidad una introducción que continuaré con el análisis de algunos aspectos del modelo organizativo de proyectos como Mozilla o Creative Commons (algunas de las piezas esenciales del procomún digital), y en particular como abordan las oportunidades y conflictos que representan las sinergias entre lo público y lo empresarial (o dicho de otro modo entre el “sin ánimo de lucro” y la búsqueda de beneficios o entre lo .org y lo .com). Pero, empezemos discutiendo si Internet es realmente un procomún y cuales son sus elementos esenciales:

Internet está soportado por estándares e infraestructuras abiertos, lo que es la causa principal de su éxito y de la enorme creatividad e innovación a la que ha dado lugar. Internet es una realidad compleja formada por infraestructuras físicas y lógicas sobre las que se construye una cultura digital y, por tanto, la necesidad de modelos abiertos se manifiesta a muchos niveles. Pero estos estándares y herramientas, para ser realmente abiertos, deben ser tratados como bienes comunes, accesibles a cualquier ciudadano por el hecho de serlo, que no puedan ser apropiados por intereses corporativos o gubernamentales. De hecho, la cultura digital ha revitalizado la importancia del concepto de bienes comunes o procomún (commons), que son aquellos que comparten características tanto con los bienes públicos (dado que no son “excluibles”, por que es muy difícil privar a los usuarios de su utilización) como con la propiedad privada (al ser “sustractables”, si una persona usa esos bienes disminuirá su disponibilidad para otros usuarios). Estos bienes se asociaron tradicionalmente con los recursos naturales, pero, como reconoce The Economist en un reciente artículo (Commons sense) están viviendo una revitalización por la importancia creciente de ciertos bienes comunes globales, denominado los “nuevos comunes”, como la atmósfera, el conjunto del planeta (en relación al problema del cambio global) o la propia Internet. No es casualidad que el Medialab-Prado, un centro de producción cultural especialmente innovador, cuente con un Laboratorio del Procomún dedicado a analizar los papeles de este tipo de bienes y las soluciones a los conflctos que genera su gestión.

Hace 40 años que el biólogo Garret Hardin publicó el artículo The tragedy of the commons (wikipedia) en el que planteaba que los bienes comunes están condenados a la sobre-explotación si no son trasnformados para ser gobernados de modo efectivo por una autoridad superior (sea esta un gobierno o un propietario privado). El trabajo de Hardin tuvo un enorme impacto en economistas y otros científicos sociales que, a partir de eso momento, defendieron la privatización o estatalización de estos bienes como única solución para su sostenibilidad. Pero como indica The Economist, el propio Hardin reconoció antes de morir que si existían formas efectivas de gestión de los comunes sin necesidad transformación de su naturaleza legal y de hecho declaró que su artículo debía haberse titualdo “The Tragedy of the Unmanaged Commons”. Otros investigadores, especialmente la politóloga Elinor Ostrom, han ayudado a mostrar estas evidencias y darles soporte teórico. El artículo de The Economist finaliza reconociendo que la economía de los nuevos comunes está todavía en su infancia, pero parece que empiezan a configurarse modelos que permiten la gestión efectiva de bienes como Internet sin necesidad de convertirlos en bienes controlados por gobiernos o empresas, algo que transformaría totalmente su utilidad y función para los ciudadanos.

Pero, ¿cuáles son los comunes que conforman Internet? y ¿cómo se pueden gobernar sin perder su naturaleza y por tanto su utilidad para los usuarios al ser apropiados por otros actores? Para contestar a la primera pregunta puede ser muy útil consultar la presentación de Joi Ito, elegido recientemente CEO de Creative Commons (CC), en la 4th iCommons Summit que se celebró en Sapporo (Japón) del 29 de Julio al 1 de Agosto. Tal como explica Joi Ito, esta “cumbre” se pensó inicialmente como una reunión de los líderes internacionales de CC, pero ha evolucionado hacia una conferencia global de personas interesadas en los diferentes aspectos de la colaboración y los modelos abiertos”. En Status of the Commons, (disponible en el grupo de Slideshare creado para la reunión), Ito analiza la situación actual del proyecto CC a nivel internacional (algo sobre lo que volveremos en otro post). Para explicar el papel de CC como parte del ecosistema de innovación abierta al que sirve de plataforma Internet, plantea la existencia de cuatro capas de innovación abierta: 1) ethernet, como la tecnología que permite la comunicación en redes locales de ordenadores; 2) TCP/IP, conjunto de protocolos de red en que se basa Internet; 3) HTTP / La web, conjunto de protocolos que permiten la conexión de documentos de hipertexto, o se a de contenidos, y su acceso desde Internet; y 4) Creative Commons, como el protocolo legal que permite el intercambio y la colaboración en el ámbito de las ideas y cultura. Estas cuatro capas se basan en estándares abiertos y podríamos considerarlas como ejemplos de los “nuevos comunes” que comentábamos antes.

Entre estos “nuevos comunes” digitales han surgido ya modelos de gestión exitosos a partir de organizaciones sin ánimo de lucro que sirven como plataforma a las comunidades de usuarios y desarrolladores. Pero muchas de estas organizaciones están explorando las alianzas público-privado, trabajando intensamente con empresas al promover las sinergias entre los intereses de las empresas y de las comunidades de usuarios o incorporando modelos empresariales a su gestión. Dos de estos casos paradigmáticos son Creative Commons y la Fundación Mozilla, que se sitúan respectivamente en la cuarta y tercera capas de innovación abierta que definía Joi Ito. La integración de intereses comunitarios y empresariales está suscitando intensos debates sobre potenciales conflictos de interés. En los próximos posts analizaremos las estrategias de ambas organizaciones y como están manejando su relación con el mundo empresarial y los potenciales conflictos que pueden provocar.

¿Por qué lo llaman “neutralidad” cuando quieren decir “libre mercado”?

El término neutralidad tecnológica ha sido introducido en el debate sobre el software de código abierto en los últimos años de la mano, precisamente, de las compañías (o la compañía) que en distintos ámbitos tienen, para su beneficio, el monopolio sobre el manejo de los servicios de software, lo cual se convierte en un tema verdaderamente crítico en el caso de los servicios prestados por las estructuras estatales pues entuba las preferencias de software no sólo de dichas estructuras sino también de los ciudadanos, limitando no sólo sus posibilidades tecnológicas sino, incluso, las de aprendizaje.

El argumento de las empresas con monopolio de software es, básicamente, que la llamada neutralidad tecnológica se garantiza no emitiendo normativa alguna que establezca condiciones que deberían requerir los paquetes de software para ser utilizados en aras del interés público, es decir, si no se alteran las condiciones del libre mercado que permite la “libre” concurrencia de todas las alternativas ante los usuarios. La idea de libertad aquí es discutible, pues bien sabemos que esa libre concurrencia sólo es viable para las empresas con un soporte de marketing mucho más diversificado.

Lamentablemente para el debate, gente de algunos gobiernos (1), e incluso algunos de los que se declaran partidarios de herramientas de software libre (2) y (3), en ocasiones caen en la discusión -quizás absurda- sobre la neutralidad en la tecnología, llegando a argumentar -quizás sin saberlo- a favor del enemigo y cediendo espacio para que, de nuevo, un tema tan importante -por radical, es decir básico- sea trivializado en medios digitales e impresos. Sin embargo, algunos otros y también aquí, se han dedicado a desmenuzar el contrasentido que encierra que sea, precisamente una empresa como Microsoft, con un control cercano al 90% del software que se ejecuta en los escritorios de las Administraciones Públicas de algunos países, la que hable de la necesidad de una neutralidad tecnológica.

Yo creo que la pérdida de mercado dentro de los monopolios establecidos -o al menos esa amenaza- es lo que ha levantado este debate en el empeño de algunas administraciones por generar instrumentos legales que posibiliten una suerte de discriminación positiva hacia la alternativa que, entre otras y con mucho, permite a los usuarios tener un mayor número de posibilidades no sólo de uso sino también, y quizás más importante aún, de aprendizaje tecnico y social.

Neutralidad tecnológica es un oximorón” Esto es, quizás y sin ser nuevo, lo más certero a lo que he podido tener acceso con respecto al tema. Definitivamente, como dijo Melvin Krazenberg: “La tecnología no es ni buena ni mala. Tampoco neutral” y esto es válido para buena parte de las actividades que nuestro quehacer social comporta, en tanto que la tecnología a devenido en hecho social.

(1) Neutralidad tecnológica

(2) ¿Por qué la administración pública debe usar software libre?: la neutralidad tecnológica

(3) La balanza del Estado en el uso de las tecnologías

La enciclopedia y el conocimiento libre: ¿Hay puntos de encuentro?

Cuando tenía menos edad y aún vivía en casa de mis padres, uno de sus mayores empeños fue el acercarnos a todo cuanto se decía o se escribía de este lado del charco. Nuestra casa era visitada periódicamente por vendedores de libros, papá leía religiosamente El Nacional (cuando aún valía la pena hacerlo y siempre en domingo luego de ir a misa y terminar la carta a mi nono) y el Círculo de Lectores era una fuente de literatura “ligera” para todos. Esto, creo, también ocurría en buena parte de las casas de las personas que conocí durante esos años. De este modo fue como se adquirieron varios de los libros y enciclopedias en casa: la Temática, la Quillet, El Tesoro de la Juventud, La Enciclopedia del Arte, la Enciclopedia Jackson… y al menos unas cuatro o cinco más cuyos nombres no recuerdo ahora. Esas fueron la tabla de salvación de muchos de mis trabajos de bachillerato y fueron sustituidos por otros textos durante mis años de estudio en la universidad, pero la idea de buscar saber de las referencias e ideas de otros para formar las propias era parte del piso que sostenía el argumento de tal práctica: había que buscar en enciclopedias porque allí estaba la información “que era” la verdad.

Esa idea de que hay quienes “poseen” el conocimiento y que, en virtud de ello, tienen autoridad para hacerlo llegar a otros, hace que aquello que hacían algunos de nuestros padres comprando enciclopedias, aún se busque hacer hoy día a través de las llamadas enciclopedias digitales. Creo que hoy día la insistencia en la necesidad de construir conocimiento enciclopédico, monolítico, aún aquél digital que se organiza gracias a herramientas potentes de tecnología y a equipos de trabajo, es un sinsentido. La razón de hacerlo es simple y quizás es sólo una excusa para afirmar que la construcción de “enciclopedias digitales” no tributa con la idea de conocimiento libre per se, por una parte, en virtud de que el conocimiento enciclopédico es el de los expertos y la decisión o asignación de la validez de esa experticia es algo asignado de forma no transparente, y por el otro en virtud de que siendo la libertad genuina del conocimiento, sólo es viable cuando el trasfondo es un espíritu crítico y de búsqueda de construcción y apropiación colectiva del conocimiento.

¿Qué es una enciclopedia? Se cree que la recopilación exhaustiva de conocimiento que significa -en principio- una enciclopedia, es un tributo a la vida del hombre moderno, pues ahorra tiempo el tener todo ese “conocimiento” sistematizado y organizado al alcance de “cualquiera”. En cuanto a las enciclopedias digitales, su sentido es, básicamente el mismo y, aún cuando los casos más exitosos de estos esfuerzos representan un trabajo orquestado de modo colectivo, y persiguen una idea de objetividad sobre los contenidos mostrados, lo cierto es que no son, en ningún caso neutros, lo cual plantea un segundo problema añadido al mencionado antes con respecto a la autoridad de quien(quienes) autoriza(n) la aparición de determinados contenidos en virtud de su “veracidad”. Tenemos, entonces, dos problemas claros con respecto a las enciclopedias -de aquí en adelante, asumiremos indistintamente las enciclopedias en papel como las digitales-: a) no son abiertas ni fomentan el pensamiento crítico y b) no son neutras, o son instrumentos (aún de forma no intencional) de determinadas tendencias ideológicas.

Existen, sin embargo, dos problemas adicionales. El primero de ellos tiene que ver con el acceso a la enciclopedia como instrumento de difusión de “conocimiento”. En ambos casos (enciclopedia digital o impresa), el acceso ocurre de forma mediada por los recursos económicos y por los patrones de uso de la información que allí se obtiene. En el caso de la enciclopedia digital, está claro que, como he dicho antes en este mismo blog, las dificultades de acceso a los contenidos digitalizados no sólo se originan por la llamada “brecha digital” (identificada de modo -casi- ingenuo con un problema estructural estrictamente técnico y tecnológico), sino en el anverso de esa misma moneda: los usos de internet.

El segundo de esos problemas tiene que ver con la asignación de la categoría de “conocimiento” a la información que se divulga a través de cualquier enciclopedia, y es aquí justo donde la ausencia de un pensamiento crítico de caracter colectivo se convierte en una de las carencias más acusadas de nuestras sociedades en construcción. De modo que nombramos “conocimiento” al resultado de cualquier consulta hecha por internet a, por ejemplo, la Wikipedia. De hecho, esta herramienta se nombra a sí misma como un espacio recopilatorio de conocimiento y centra su carta de presentación o resumé, en una detallada revisión de su número de visitas, de idiomas disponibles o de artículos disponibles a través del sistema. La idea que sustenta esta iniciativa es “«un mundo en el que cada persona del planeta tenga acceso libre a la suma de todo el saber de la humanidad»”, y el paradigma que pretende superar es la Enciclopedia Británica. El sustento de la validez de los artículos allí publicados es la aceptación de dichos contenidos a través de un proceso de discusión que es, en definición, abierto. Pero aún en una iniciativa con estas características subyace el problema del acceso y de la apropiación de esta información, además de los dos mencionados arriba. Sin embargo, no quisiera que se entendiera que intento desacreditar el esfuerzo de la Wikipedia. En lo absoluto. En realidad lo que pretendo es plantear preguntas al respecto de un tema que siento planea de vez en cuando sobre la idea de conocimiento libre: la de crear repositorios de conceptos con un contenido único para cada uno de ellos, es decir la búsqueda de presentar proyectos de enciclopedias digitales.

Hace unos días atrás, por ejemplo, leí en una entrevista a Fernándo Báez, Director de la Biblioteca Nacional de Venezuela entre otras cosas sobre conocimiento libre y software libre. Una de sus propuestas, casi de modo ingenuo es la de crear un proyecto propio de biblioteca digital (o enciclopedia digital) en Latinoamérica para superar las limitaciones que se le atribuyen a las iniciativas más difundidas en la actualidad y que él mismo señala:

Todavía no tenemos al gran maestro mundial de la información que diga qué es lo que es o no una buena información, y en medio de ese debate se generan opiniones: hay quienes dicen que Google sesga la información, otros creen que Wikipedia tiene una cantidad de datos afectados o que la Británica en internet tiene condicionamientos desde el punto de vista anglosajón porque no incluye datos del mundo de habla castellana. Otros dicen que los portales españoles no presentan la realidad iberoamericana sino desde su única perspectiva. Creo que no solamente tenemos el reto de ofrecer grandes portales con información que tenga que ver con los manuales escolares que el país está estableciendo, sino el gran compromiso de ir depurando internet, porque lo que vayamos haciendo aquí se lo vamos a dejar a nuestros hijos.”

En este contexto, y con todo el respeto que me merece el actual director de la Biblioteca Nacional, no sé si me resulta más chocante que se piense -aún- en realizar la idea de un instrumento del conocimiento monolítico (como la enciclopedia en cualquiera de sus versiones), como el hecho que se reconozca, sin mayores problemas que ese tipo de instrumentos llevan detrás un conjunto de “autoridades” encargadas de seleccionar los textos que figuran y los que no (que él llama “maestro mundial de la información”), o que se pretenda “depurar” internet. En cualquiera de estos dos casos, estaríamos haciendo muy poco por la construcción de un piso de sustento al pensamiento crítico que es, a mi juicio, mucho más determinante, y esto, que ya es grave, sería terrible al estar impulsado por las instituciones del Estado.

Soy de la opinión que una de las esperanzas necesarias en torno al proyecto de edificación social a partir del reconocimiento del caracter genuino de la libertad en el conocimiento, es la formación de patrones críticos de construcción colectiva de conocimiento que atiendan no sólo los procesos de creación del conocimiento, sino también los de reconocimiento y apropiación. En un proyecto así definido, las ideas de la construcción de enciclopedias o repositorios de información arbitrada, siempre serán insuficientes, de modo que habrá que buscar alternativas para abrir esas instancias.