How does Facebook decide what to show in my news feed? | Technology | theguardian.com

How does Facebook decide what to show in my news feed? | Technology | theguardian.com.

Controversial emotion study is a reminder that the social network’s filters are constantly at work in the background

Facebook study breached ethical guidelines – researchers

How does Facebook filter my news feed?

 

 

The average Facebook user sees 300 updates a day out of a possible 1,500.
The average Facebook user sees 300 updates a day out of a possible 1,500. Photograph: DADO RUVIC/REUTERS

 

Facebook is secretly filtering my news feed? I’m outraged!

Not so secretly, actually. There is controversy this week over the social network’s research project manipulating nearly 700,000 users’ news feeds to understand whether it could affect their emotions.

But Facebook has been much more open about its general practice of filtering the status updates and page posts that you see in your feed when logging on from your various devices. In fact, it argues that these filters are essential.

Essential? Why can’t Facebook just show me an unfiltered feed?

Because, it argues, the results would be overwhelming. “Every time someone visits news feed there are on average 1,500 potential stories from friends, people they follow and pages for them to see, and most people don’t have enough time to see them all,” wrote Facebook engineer Lars Backstrom in a blog post in August 2013.

“With so many stories, there is a good chance people would miss something they wanted to see if we displayed a continuous, unranked stream of information.”

Bear in mind that this is just an average. In another blog post, by Facebook advertising executive Brian Boland in June 2014, he explained that for more intensive users, the risk of story overload is greater.


Using Facebook for science – a guide for megalomaniacs | Dean Burnett | Science | theguardian.com

Using Facebook for science – a guide for megalomaniacs | Dean Burnett | Science | theguardian.com.

Facebook was recently criticised for conducting research on users without their knowledge. One consideration seems to have been overlooked, however, which is that there’s nothing to say this is the only study Facebook is doing. What else could it be up to, given its influence?

 

A Facebook error message is seen in this illustration photo of a computer screen
Facebook seems to have many problems, but what if all of these are due to scientific experiments intended to exert control over the planet? Photograph: Thomas White/Reuters

 

I recently heard some commercial radio DJ’s claim that “nobody uses Facebook any more”. Facebook is the most popular social network on Earth, with more than 1 billion users, so this is really stretching the definition of “nobody”.

Given its direct access to nearly 15% of the human race, it would be fair to say that Facebook wields considerable power, so perhaps it shouldn’t be surprising to find it has been running experiments on some users, without their knowledge.

The reaction to this has been extensive and varied. Some are OK with it, many aren’t. There are people better qualified than me to discuss the ethical/methodological concerns and scientific validity of this study. But one thing that shouldn’t be overlooked is, who says this is the only research Facebook is doing? It has published the findings of one experiment, but why stop there? With its influence and resources, there’s no telling what it could be up to. Maybe the quirks and irritations many Facebook users complain about are the result of active scientific manipulation?

So here are just a few possible studies that we could be unwitting subjects for.


Facebook experimentó con 689.000 usuarios sin su consentimiento | Tecnología | EL PAÍS

Facebook experimentó con 689.000 usuarios sin su consentimiento | Tecnología | EL PAÍS.

 

Un usuario consulta una página de Facebbok. / reuters

Enviar a LinkedIn 65
Enviar a Tuenti Enviar a Menéame Enviar a Eskup

Enviar Imprimir Guardar

Una semana de experimento y millones de comentarios, en su mayoría negativos, han sido las consecuencias de un estudio llevado a cabo por varios ingenieros de Facebook. La mayor red social del mundo tomó 689.000 perfiles, sin aviso o consentimiento, para analizar su comportamiento alterando el algoritmo que selecciona las noticias que se ven de los amigos. Un grupo veía noticias positivas, el otro, negativas.

La indignación ha surgido al conocerse la publicación del estudio en la web de la Academia Nacional de Ciencias de Estados Unidos. Para la prueba se tomaron, exclusivamente, perfiles que escriben en inglés. El rechazo a comentar o interaccionar con los contenidos de tinte negativo, demasiado emotivos o cercanos a la tristeza, era mucho más alto. En ocasiones hasta un 90% de lo habitual. El estudio concluye que sí, que el ánimo de los comentarios de los contactos de Facebook invita a seguir en la deriva negativa o positiva, según el grupo que les tocase, al cabo de una semana.

Nos importa el impacto emocional de Facebook en las personas que lo usan

Adam Kramer, coautor del estudio

Este tipo de experimentos basados en interacción son muy comunes en ciertas webs y, sobre todo, en comercio electrónico, pero sin tener el cuenta el tinte del contenido. Se denomina A/B testing a mostrar una presentación (ya sea la distribución de la página o el estilo de los iconos) diferente bajo una misma web para poder estudiar si se emplea más tiempo en la misma, se hace más clic… pero nunca usando el tono del contenido como un componente más.

En un primer momento Facebook se limitó a decir que los posts, actualizaciones de estado, se podían consultar de manera habitual, sin matizar que la selección de una u otra opción (noticia positiva o negativa) con un fin experimental era dónde residía la ruptura de confianza con sus suscriptores. A última hora del domingo, a través del perfil de Adam Kramer, coautor del estudio y analista de datos dentro de la firma, se daba una explicación algo más concreta: “Nos importa el impacto emocional de Facebook en las personas que lo usan, por eso hemos hecho el estudio. Sentíamos que era importante investigar si ver contenido positivo de los amigos les hacía seguir dentro o si, el hecho de que lo que se contaba era negativo, les invitaba a no visitar Facebook. No queríamos enfadar a nadie”.

No queríamos enfadar a nadie

Adam Kramer, coautor del estudio

En la explicación asegura que solo afectó al 0,04% de los usuarios, uno por cada 2.500 perfiles, durante una semana a comienzos de 2012. La red social ha contestado al diario británico The Guardian que su intención era mejorar el servicio para mostrar contenido más relevante y que crease una mayor cercanía con la audiencia.

En lo que no parecen reparar dentro de la web de Mark Zuckerberg es que el malestar se crea en el momento en que se rompe lo establecido, un algoritmo similar para todos, y se experimenta con las sensaciones de sus usuarios. Tampoco matiza que el conocimiento adquirido a partir de este experimento se pueda aplicar a la publicidad contratada en su interior.

En todo caso, queda la sensación de que gracias a la publicación del estudio se ha conocido este experimento, pero cualquiera podría ser objeto de muchos otros por parte de los analistas de datos de Facebook sin necesidad de avisar. Según sus términos de uso, de manera explícita, al tener un perfil se da permiso a acceder para “operaciones internas, resolución de problemas, análisis de datos, experimentos, investigación y mejoras en el servicio”.