La censura en los tiempos de Facebook


img_gtorresi_20180425-191253_imagenes_lv_otras_fuentes_facebooknotificationta-750x430-558-kb2e-u4430009896028v-992x558lavanguardia-web

De Facebook, de Twitter, de YouTube, de Google, de Whastapp… La censura en las plataformas a través de las que nos comunicamos. Una censura externalizada, privada, empresarial, sin mecanismos de defensa. Una censura global ejercida por las plataformas tecnológica y por las turbas estúpidas y paranoicas, por los enjambres digitales de hipócritas trolls.

¿Qué es censura?

informe_fiestas

Un informe de un censor franquista: ¿atenta al dogma, a la Iglesia, al Régimen?

En sentido estricto, censura es el control previo de los mensajes que se van a difundir.

Censura es el proceso de control de la comunicación pública por el poder político y/o religioso. Supone un examen previo, la necesidad de obtener un permiso o placet de un poder público para difundir un mensaje público.

Es el control propio de las galaxias Gutemberg y Marconi.

Editar en el absolutismo era un privilegio real que se concedía a los impresores, sin perjuicio de la necesidad de obtener la aprobación previa del censor, político y/o religioso (a menudo la misma figura).

En el régimen liberal, la libre comunicación de pensamientos ideas se convierte en uno de los derechos más preciados, y cualquiera puede hablar, escribir o imprimir libremente “siempre y cuando responda del abuso de esta libertad en los casos determinados por la Ley” (art. 11 Declaración de Derechos del Hombre y el Ciudadano, 1789).

Se pasa, así, de un régimen de censura previa a un régimen de responsabilidad. El problemas son “los casos determinados por la ley”. Dependiendo del momento histórico y de que gobiernos fueran más o menos liberales, los límites establecidos por la ley podían ser más o menos amplios.

En la Europa continental, durante todo el siglo XIX y la primera parte del XX fueron las leyes fueron bastante limitantes y los tribunales exigentes. Los límites se referían, en general, a la protección del Estado, sus dignatarios y sus símbolos, la protección de la propiedad, la religión dominante y la moral. Por supuesto, solo se exigía responsabilidad en la comunicación pública (prensa, primero, radio y televisión después), primero por su transcendencia social, pero también por la imposibilidad de controlar la comunicación privada.

Puede hablarse de censura en un sentido amplio cuando sin existir propiamente un control previo, el régimen de responsabilidad es tan estricto (límites amplísimos y mal definidos, sanciones administrativas, penas muy rigurosas, secuestro preventivo.

El caso del franquismo es bien ilustrativo. De la censura previa de la Ley de Serrano Súñer de 1938 a la cuasi censura de la Ley Fraga de 1966 (texto): límites amplísimos (art. 2), fuertes sanciones administrativas, responsabilidad penal, depósito previo y secuestro gubernativo. No pocas veces, decretado el secuestro por las autoridades administrativas (que conocían el contenido por el obligatorio depósito previo) la policía retiraba los ejemplares de los periódicos de los quioscos apenas estos abrían. La Constitución de 1978 prohibe cualquier tipo de censura previa y elimina el secuestro gubernativo (art. 20).

La censura hoy

En nuestro actual ecosistema comunicativo, la comunicación privada y la pública se funden. Por supuesto nos queda un ámbito privado de comunicación interpersonal, sin mediación tecnológica, pero más allá, hasta los mensajes intercambiados privadamente utilizando cualquier plataforma tecnológica pueden hacerse públicos por uno de los interlocutores y de hecho así ocurre muy frecuentemente.

El sistema libertad/responsabilidad se sigue aplicando a la comunicación pública estricta, a los mensajes profesionales en los medios de comunicación.  Hasta aquí ningún problema (sin entrar ahora en la cuestión de si los tipos penales son proporcionados y actualizados o las normas de protección civil al honor y la propia imagen funcionan adecuadamente, que intentaré abordar en otra entrada).

El problema aparece cuando este esquema se aplica a mensajes privados o de grupo que se hacen públicos en las plataformas tecnológicas.

¿Tiene la misma responsabilidad el autor de un tuit que el de una columna de opinión en un periódico o el de una sátira en la televisión? Dependerá del contexto y la difusión del mensaje, pero no debe olvidarse que muchos de los mensajes no profesionales van dirigidos a un grupo, a una comunidad, que comparte ideas y valores y que, por tanto, su potencial ofensivo puede ser menor; además, en este entorno suele procederse de un modo informal, incluso como forma de diversión. Lo que desencadena el conflicto es la salida de la burbuja, el encadenamiento que hace viral el mensaje y le convierte en una forma plena de comunicación pública.

En resumen, en la actualidad se aplican los siguientes sistemas de control de la comunicación:

  1. Control editorial. El que ejercen los titulares de los medios de comunicación a través de instancias profesionales. En rigor más que de control, debiéramos de hablar de poder editorial. En situación de oligopolio o de preponderancia de los medios más poderosos, los propietarios, de hecho, moderan y restringen la comunicación pública, a menudo en connivencia con los poderes políticos. Los medios, en la denuncia de la corriente crítica, son “la voz de su amo”. Por supuesto que la crítica tiene base, pero debe matizarse teniendo en cuenta la diversidad de voces (pluralismo externo), la función de control del poder político y el pluralismo entre los profesionales (pluralismo interno). Los medios audiovisuales públicos requilibran el poder editorial privado. Los medios hoy ya no son el único determinante de la comunicación pública, pero siguen sirviendo como enlace entre las burbujas privadas en que se ha fragmentado.
  2. Libertad/responsabilidad, aplicable a los mensajes difundidos en los medios masivos. En una sociedad democrática, no puede existir forma alguna de control previo y la responsabilidad solo puede ser exigida por los tribunales, por la comisión de un delito o por la exigencia de reparación establecidas en las leyes civiles que protegen la intimidad, el honor y la propia imagen. Los límites están establecidos en las leyes aprobadas en los parlamentos, son públicas, y el procedimiento de exigencia de responsabilidad lleva consigo un sistema de garantías y recursos.
  3. Libertad/responsabilidad, aplicación conflictiva en el ámbito de la comunicación público-privada de las plataformas tecnológicas. No está claro que actos tienen la entidad suficiente para generar responsabilidad y, por tanto, supone un cierto grado de inseguridad jurídica. Como en el caso 2, la exigencia de responsabilidad lleva consigo garantías y recursos.
  4. Control previo de las plataformas tecnológicas. Las empresas privadas ejercen un peculiar sistema de admisión, establecen normas poco transparentes sobre lo que se puede o no difundir y carecen de un verdadero sistema de recursos o garantías. El control no es previo, pero casi. Los algoritmos detectan  instantáneamente los contenidos no aceptables y, bien los eliminan directamente, bien los someten a un proceso de evaluación humana. Sus gestores se resisten a ejercer un poder editorial, que llevaría consigo una responsabilidad que no quieren aceptar.
  5. Linchamiento digital. Ni estados, ni empresas, cada uno podemos ser ahora un cruel censor, denunciar cualquier cosa que no nos guste en las redes, pedir acciones contra quien sentimos que nos ha ofendido, insultarle impunemente, desarrollar campañas de boicot. En sociedades cada vez más polarizadas e intolerantes es la censura más peligrosa e inapelable (veáse, por citar solo el más reciente, el caso de Dani Mateo).

El caso de Facebook

img_gtorresi_20180425-030810_imagenes_lv_otras_fuentes_appeals-final-1-krfg-656x1314lavanguardia-web

Mensaje de Facebook de rechazo de una reclamación

Todas las plataformas de contenidos afronta parecidos problemas, pero Facebook es un mundo en si mismo. Con sus 2.200 millones de usuarios (¿cuántos activos?) se presenta como una nación digital global: “la Comunidad”.

Para muchos de esos millones, Facebook es su fundamental espacio de comunicación: el lugar donde interaccionan con amigos y familiares reales y con los “amigos virtuales”, el espacio en el que comparten y reciben informaciones que consideran, por su propio origen, fiables, aun cuando prácticamente todos sigan consumiendo información en unos medios tradicionales, en los que cada vez confían menos.

De modo que sí, el 4º método de control descrito más arriba, el control cuasi previo de los contenidos en las plataformas tecnológicas y especialmente en Facebook puede considerar la más relevante de las “censuras” de nuestros días.

Zuckerberg, como la mayoría de los “padres fundadores” de Silicon Valley es un libertario neoliberal, contrario a cualquier forma de regulación y convencido de que la tecnología es en si misma una arma de progreso capaz de resolver los problemas humanos con la fuerza bruta del cálculo y los algoritmos. Todos ellos consideran que sus plataformas simplemente han hecho tecnológicamente posible la utopía del libre mercado de ideas de Milton y Stuart Mill. Zuckerberg repite como un mantra que la misión de Facebook es construir “un mundo más abierto y conectado”.

Así que ¿para que establecer controles sobre los mensajes si a mayor cantidad y diversidad más rico, en teoría, ese libre mercado de las ideas, convertido en la práctica en una propiedad privada que rinde más beneficios cuanto más se interactue con esos mensajes? (vía publicidad y venta de datos).

El primer problema lo plantean los derechos de autor. Los titulares del copyright no aceptan que se lleven a ese mercado productos protegidos. Quizá los primeros controles aparecen en YouTube (la segunda plataforma más influyente) para eliminar contenidos protegidos, como consecuencia de las presiones de las grandes empresas, especialmente los estudios de Hollywood.

Después las plataformas tendrán que afrontar los problemas de la privacidad, especialmente en relación con la normativa europea (notablemente reforzada en el nuevo reglamento). Y finalmente, las quejas de los propios usuarios, gobiernos o lobbys por la presencia de contenidos dañinos (¿para quién, en qué contexto?).

Facebook establece unas normas -estándares de la Comunidad los llama- sobre lo que puede o no ser publicado. Estas normas no son plenamente públicas hasta un fecha tan reciente como el pasado abril.  Pero el resultado es que cuando se intenta publicar un determinado mensaje, sobre todo imágenes y vídeos, se recibe un mensaje de prohibición advirtiendo que el contenido viola esas normas.

Los documentales Les nettoyeurs y Dispatches revelan el proceso interno de control o moderación. Los algoritmos o las quejas de los usuarios se colocan en interminables listas de revisión los casos sospechosos. La “limpieza” corre a cargo de agentes contratados por terceras empresas, esto es, Facebook externaliza la censura. La carga de trabajo de estos agentes es enorme, su formación deficiente y sus conocimientos del contexto de esos mensajes nulo. De manera que lo más fácil es, en la duda, eliminar, so pena de entrar en discusiones casuísticas que retrasan el trabajo.

En los documentales vemos como los “limpiadores” eliminan fotos de Abu Grhaib porque las consideran propaganda del Estado Islámico. En otro caso, se reconoce que la foto de la niña abrasada por el napalm es un icono de la guerra de Vietnam, pero, puesto que se muestran los genitales, es un caso claro en el que las normas exigen su borrado. Y en cambio, resulta evidente como los supervisores deciden mantener los discursos de odio, porque alegan que son manifestación de la libertad de expresión y -ahí está la clave- porque generan mucha interacción.

Facebook ignoró las denuncias de que la plataforma se estaba utilizando como arma de guerra por los prorrusos en Ucrania, que en Birmania era el vehículo de la propaganda anti-roginha que llevó al genocidio. Pero entonces le estalló la interferencia rusa en las elecciones presidenciales norteamericanas y en concreto el caso Cambridge Analytica y Zuckerberg (con pocas habilidades comunicativas) no tuvo más remedio que dar explicaciones públicas, comenzando por un comité del Senado.

Una revisión de las normas comunitarias ahora públicas nos muestran unos principios generales, desarrollados con mayor o menor casuismo. Parece un ejercicio imposible de poner puertas al campo: cómo establecer que contenidos pueden considerar dañinos, para quién, en qué contexto, en dónde. Dan la impresión de mayor tolerancia con la violencia no terrorista, los suicidios o el discurso del odio que con los simples desnudos. Pero a la luz del proceso de revisión revelado por los documentales, qué se borra o no parece bastante aleatorio. Y un borrado sistemático puede significar que un icono tan relevante como el de la niña de Vietnam puede convertirse en inaccesible a para 2.200 millones de personas, o, por lo menos, para aquellos que se comunican esencialmente en el entorno de Facebook.

La pasada semana Zuckerberg respondió a las crítica con un post en el que presentaba un borrador para una nueva gobernanza.

Algunos elementos son, por lo menos para mi, preocupantes. Desarrollar métodos de Inteligencia Artificial para que los contenidos dañinos sean eliminados antes de que nadie pueda verlos (¡la censura previa del Gran Hermano!). Sostiene que sus herramientas de Inteligencia Artificial ya detectan y eliminan el 96% de los desnudos. Categorías prioritarias de control: terrorismo y daño autoinfringido.

Lo más relevante puede ser un cambio esencial en la dinámica de Facebook: desincentivar y netralizar la interacción con lo que Zuckerberg llama borderline content, los contenidos límite, esto es, los mensajes más próximos a lo que las normas prohiben, que son los que, hasta ahora más interacción consiguen.

Este hilo de Hugo Sáez lo explica brillantemente.

Entre estos contenidos límite, Zuckerberg cita la desinformación y el clickbait. ¿Seguirá siendo rentable la plataforma si elimina esos contenidos límite, que son los que logran mayor interacción? ¿Cómo neutralizarlos? Una de las líneas que avanza el fundador de Facebook es la corregulación.

Regulación del estatuto editorial

Facebook, como el resto de las plataformas de contenidos, siempre ha pretendido evitar las obligaciones propias de los medios de comunicación, en concreto, la responsabilidad jurídica por los contenidos que publican. De hecho, su marco legal ha sido el del comercio electrónico, tanto en Estados Unidos como en Europa (Directiva de Comercio Electrónico de 2002) o España (Ley de Servicios de la Sociedad de la Información, 2002).

Los acontecimientos del último lustro, especialmente la marea de la desinformación, y las críticas subsiguientes, les ha obligado a aceptar a regañadientes alguna forma de regulación.

En su reciente post, Zuckerber propone la corregulación, esto es, una regulación negociada con los estados y  aplicada internamente. Concretamente, se muestra dispuesto a colaborar con la UE y con la ley de Macron contra la desinformación en campaña electoral, y que tantas críticas a recibido dentro y fuera de Francia. Otras medidas que propone es que todas las plataformas publiquen las métricas de contenidos dañinos y se compromete a crear antes del fin de 2019 un organismo independiente de recurso (¿único? ¿en cada país?). En fin, promesas vagas.

Que las plataformas tecnológicas no pueden ni deben ejercer el mismo control sobre la información que los editores de los medios de comunicación es evidente. Pero como de hecho cada vez ejercen un mayor control, este no puede ser opaco, confiando a herramientas de Inteligencia Artificial, con unas normas genéricas para toda la humanidad, en el marco de una relación de servicios, sin ningún tipo de garantías.

Se quiera o no, la solución hay que buscarla en el marco nacional o al menos multilateral. Por ejemplo, las plataformas podrían crear comités independientes nacionales, que adaptaran las normas y revisaran las quejas, siendo sus decisiones recurribles ante los tribunales. No puede esperarse que las plataformas se autorregulen, tienen que ser los legisladores nacionales los que creen un marco vinculante para la autorregulación, es decir, una corregulación efectiva.

Ciertamente, retrotraer el problema al marco nacional nos remite al sistema de control tradicional de los medios, lo que puede suponer en sociedades autoritarias anular las potencialidades democráticas de estas nuevas plataformas. Pero un paso adelante en Estados Unido o la Unión Europea marcarían la pauta, por mucho que Putin, Erdogan o Xi Jinping ejerzan una censura efectiva.

Responsabilidad de los medios públicos europeos es, sin pretender anular ni competir con las plataformas privadas, asumir esa tarea de construir sociedades más conectadas y abiertas de acuerdo con criterios de verdadero interés público.

Fuentes

Políticas de Facebook

La crisis de Facebook

Documentales

Lamentablemente, los documentales de la Noche Temática solo están un tiempo limitado en rtve.es, por lo que solo los he podido encontrar en inglés. Lo mismo, lógicamente, que los dos documentales de Frontline, el espacio de investigación de PBS, dedicados a la crisis en torno al escándalo Cambridge Analytica y, en general, al dilema de adoptar o no una responsabilidad editorial.

Anuncios

Regulación de las plataformas sociales como servicios de interés económico general


not_facebook_not_like_thumbs_downAsí que Facebook guarda los registros de todas mis llamadas y sms… ¡Me doy de baja!

Esta fue mi reacción, borrar mi cuenta de Facebook, como han hecho miles de personas (#deletefacebook) en protesta por el escándalo de Cambridge Analytica: los datos de 50 millones de perfiles en manos de una compañía de estrategia electoral, decisiva para la victoria de Trump (y parece que también para el Brexit). Finalmente, no lo he hecho. Dedico muy poco tiempo a Facebook, pero tengo algunos contactos que perdería si saliera de la plataforma.

Dicho en téminos no personales: las plataformas tecnológicas se han convertido en un elemento esencial de sociabilidad, crean las distintas burbujas comunicativas de las que dependemos para nuestras relaciones sociales y profesionales… y de las que recibimos una parte esencial de la información que  construye nuestra percepción de la realidad. Y todo ello gobernado por unos algoritmos, diseñados para promover el máximo beneficio para estas empresas tecnológicas. Podemos desconectarnos, pero corremos el riesgo de quedar al margen del pálpito de nuestra sociedad (mejor sería decir, de nuestras diversas comunidades).

Como ocurriera con los ferrocarriles, la energía o las telecomunicaciones, un servicio desarrollado primariamente por compañías privadas se convierte en un elemento esencial de desarrollo social y económico. Llega entonces la intervención pública, bien en forma de regulación o, de forma más radical, como declaración de servicio público.

Estos son los elementos que convierten a estos servicios en algo más que un servicio privado:

  • Explotan una materia básica, los datos personales, que, mediante la aplicación de técnicas de inteligencia artificial, se transmuta en valor social, económico y político, que modela nuestras sociedades;
  • La extracción de esa materia prima entra en conflicto con los derechos de la personalidad (a la imagen, a la vida privada, a la integridad y el control sobre nuestros datos);
  • Tienen una posición de dominio en sus mercados (83% de las búsquedas Google, 60% de la publicidad Facebook);
  • Controlan mediante algoritmos la burbujas sociales en que se fragmenta el espacio público (difusión de información, interacción), previa destrucción del ecosistema mediático.
  • Desarrollan prácticas tributarias depredatorias para el estado de bienestar;
  • Desarrollan innovación disruptiva, que destruye empleo;
  • Se apropian de la creatividad de sus millones de usuarios y solo en algunos casos (YouTube) la retribuyen.

Estos servicios se regulan mediante contratos privados de adhesión, con expresa remisión a la jurisdicción norteamericana y a menudo a las leyes del Estado de California y la única supervisión de estas empresas es la Comisión de Comercio de Estados Unidos. En lugar de las leyes nos censuran algoritmos, que deciden lo que es legítimo o no difundir. Frente a ellas no tenemos más que costosos y complejos procediemientos civiles a desarrollar… en California.

Nacieron estas plataformas de una matriz libertaria capitalista, en un momento donde las regulaciones de los servicios esenciales se van haciendo cada vez más tenues. Además, y esto es sustancial, su actuación es transnacional.

Ningún estado puede de forma individual intentar regular su actividad. Pero sí podría la Unión Europea dar un paso adelante declarándolas servicios de interés económico general, lo que posibilitaría la imposición de determinadas obligaciones de servicio público, de modo semejante a como los servicios de telecomunicaciones están sometidos a obligaciones como prestadores del servicio universal.

No se trata tanto de establecer  una norma especifica, como de tomar en cuenta las especificidades de estos servicios en los distintos campos regulatorios. Facebook no puede, por ejemplo, tener las mismas obligaciones respecto al tratamiento de los datos de sus usuarios que, por ejemplo, un dentista con respecto a los de sus pacientes.

La regulación más específica debe referirse a los contratos de adhesión, para simplificarlos, hacerlos más claros y sencillos y reequilibrar la relación empresa-usuario. También establecer que la jurisdicción competente sea la del país del usuario.

La gestión de los datos debe entregarse al usuario de forma sencilla y transparente, con la posibilidad de recuperar y eliminar todos sus datos de la red social. Puede que estas obligaciones estén ya presentes en las directivas europeas y en las legislaciones naciones, pero requieren de mayor concreción.

Regular las redes sociales no puede significar censura. Ejercer cualquier tipo de control sobre los contenidos, ya sea privado -como de hecho hacen las redes, especialmente Facebook- o público, dañaría irremediablemente las sociedades democráticas. Luchar contra la noticias falsas, una manifestación del fenómeno más amplio de las noticias falsas, no tiene una respuesta sencilla ni unívoca. El Grupo de Alto Nivel de la Comisión Europea (pdf informe) propone para luchar contra la desinformación:

  • Mejorar la transparencia de las fuentes de la información en línea;
  • Promover la educomunicación;
  • Desarrollar herramientas para que periodistas y públicas puedan afrontar la desinformación;
  • Salvaguardar la sostenibilidad del ecosistema mediático europeo
  • Promover la investigación.

No hay soluciones mágicas. Por ejemplo, transparencia respecto a las fuentes puede ser indicar, como ha empezado a hacer YouTube en Estados Unidos, que un canal de televisión se financia con fondos gubernamentales. No es lo mismo la BBC, que RT, pero en todos los casos un disclaimer semejante parece advertir que hay algo perverso en la financiación pública, lo que no deja de traslucir un perjuicio del algoritmo, o, mejor dicho, de sus programadores.

Las obligaciones de servicio público que la regulación puede imponer en el derecho comunitario a un servicio económico de interés general siempre serán limitadas. Por eso, para garantizar un interés público más allá de los intereses privados están los servicios públicos; en el campo de la comunicación los PSM (Public System Media), la transmutación de los viejos servicios públicos audiovisuales. A su función de reconstructores del espacio público dedicaré una próxima entrada.

Las redes sociales maduran


Las redes sociales ya no son privativas de los más jovenes. Cada vez más adultos usan las aplicaciones de redes sociales y leen y participan en blogs. Esta me parece que es la conclusión más importante del estudio  Global Faces and Networked Places: A Nielsen Report on Social Networking’s New Global Footprint realizado por Nielsen.Online (información BBC, resumen ejecutivo, informe completo). En el conjunto de los 8 países estudiados (entre ellos España), el 67% de los internautas son lo que el estudio denomina “communities members”, esto es, aquellos que usan algunas de las aplicaciones específicas de redes sociales o visitan regularmente un blog. Por tanto, estamos hablando de un fenómeno mucho más amplio de lo que normalmente se denominan “redes sociales”. Así se explica que sea el uso más extendido, después de la búsqueda y la visita de portales informativos y por encima del correo (65%). Los internautas gastan el 10% de su tiempo de conexión en redes sociales y blogs.

No sé porque Nielsen engloba estas dos actividades en un estudio que va, sobre todo, dirigido a que los publicitarios comprendan este nuevo entorno. No me parece útil, pues aunque no cabe duda de que un blog puede congregar una red de relaciones sociales (como también puede hacerse a través de listas de correo, foros o chat), se trata de una actividad muy distinta de administrar nuestras redes sociales a través de una aplicación específica. Los blogs son un vehículo de información y opinión. Las redes sociales sirven para compartir información (contenidos), pero van más allá, son vehículo de contacto, definición de la identidad, movilización social y hasta tribunal popular (como se ha vista en España en el caso de Marta del Castillo y Tuenti).

Viene esta reflexión a cuento de que sorprende que, según el estudio, el 75% de los internautas sean considerados “miembros de una comunidad”, el segundo páis sólo después de Brasil con el 80%. Me atrevo a pensar que en España las aplicaciones de redes sociales siguen siendo preponderantemente juveniles, mientras que las capas de edad superior están más vinculadas a blogs. A nivel global, el estrato de edad con mayor participación es ya el de 35 a 49 años (no se desglosa este dato por países).

El estudio confirma el dominio de Facebook y la especialización de MySpace en el mundo de la música. Nielsen advierte a los anunciantes que uno de los términos más odiados en las redes sociales es el de publicidad y animan a las compañías a abrir sus propios perfiles y a participar en la dinámica social. Lo que subyace es la falta de un modelo claro de negocio en las redes sociales, como ya comenté en una entrada anterior.

También se recoge la simbiosis de Twitter con los medios tradicionales. Twitter se está convirtiendo en un vehículo para las “breaking news” de medios como CNN, BBC o New York Times. Ya se utilizó espontáneamente como fuente interactiva en el terremoto de China y los atentados de Bombay. Ahora, lo que nació como una plataforma social (informar a los amigos de lo que hago en cada momento) se utiliza como medio de distribución por los periódicos o televisiones.

Cuidado con las redes sociales


Fue sonada la metedura de pata de aquellos medios angloasajones que difundieron datos sacados de un falso perfil de Bilawal Bhutto en Facebook. El hijo de la asesinada Benazir declaraba en esa falsificación que no había nacido para ser un líder y hacía una serie de manifestaciones que podían considerarse contrarias a la interpretación estricta del Islam. Facebook retiró los perfiles.

Ahora, según informa The Guardian, la BBC recomienda a sus empleados precaución en el uso de fotos obtenidas en las redes sociales. La BBC no ha tomado todavía una directriz editorial definitiva, pero subraya que la facilidad de obtención no exime de responsabilidad por su uso. En primer lugar, está la cuestión de su propia autenticidad. Y, además, se plantean problemas de derechos difíciles de resolver. Los editores de la BBC insisten en que aunque este material sea público, en la mayor parte de los casos se ha generado para ser visto por una pequeña comunidad de amigos y familiares. Una vez más se plantea la frontera entre lo público y lo privado. En cualquier caso, se recomienda que se indique el contexto en que se han obtenido estas fotos.

 La semana pasada también sabíamos, gracias a la comparecencia de Pierre Lessourd ante un Comité sobre Información y Propiedad de los Medios de la Cámara de los Lores, que la agencia France Press tiene prohibido usar como fuentes Wikipedia y Facebook, entre otras fuentes en línea.

Creo que Facebook y Wikipedia son dos fuente muy distintas. La primera es un vehículo de hacer públicos contenidos privados, y, por tanto, su fiabilidad debe considerarse mínima. En cambio, Wikipedia está basado en una creación colaborativa del conocimiento, que incluye sus propias herramientas de corrección y debate sobre cuestiones controvertidas. Por tanto, puede ser considerada una fuente que ofrece elementos para valorar su fiabilidad. El problema es que las fuentes en línea no se someten al proceso de verificación de las fuentes del mundo real, en gran parte por la presión que supone la edición en línea de contenidos para distintas plataformas.

A %d blogueros les gusta esto: