‘Fraudebook’: toda la libertad que quita un ‘like’

El libro es un ensayo de Vicente Serrano Marín, doctor en Filosofía de la Universidad Complutense de Madrid, en el que desgrana cómo manejan las redes sociales nuestras vidasFacebook es un dispositivo político y una máquina capaz de incidir en nuestra afectividad para convertirla en un factor de producción, según el autor

Fuente: ‘Fraudebook’: toda la libertad que quita un ‘like’

“Facebook es una fábrica y la vida afectiva la mercancía” – El Mostrador

Facebook ha borrado la última frontera que ofrecía resistencia al capitalismo, la de la afectividad. La red social es una fábrica que trabaja con la mercancía de la identidad y la intimidad y en la que los conceptos de amistad y biografía son un fraude, según el filósofo Vicente Serrano.

Fuente: “Facebook es una fábrica y la vida afectiva la mercancía” – El Mostrador

Ever liked a film on Facebook? You’ve given the security services a key to your soul | Andrew Brown | Comment is free | theguardian.com

Ever liked a film on Facebook? You’ve given the security services a key to your soul | Andrew Brown | Comment is free | theguardian.com.

The most banal acts on Facebook can add up to an accurate psychological profile, according to new research
HARRY POTTER holding wand
‘To know that someone likes Harry Potter doesn’t really distinguish them from millions of Facebook users. Except that, given enough data, that’s exactly what it does.’ Photograph: Sportsphoto/Allstar/Warner

Why on earth does David Cameron feel the need to call for new digital powers for the security services when they are only beginning to use the ones they already have? Suppose you wanted personality profiles of a quarter of the population of England? Turns out you can mine them from Facebook with publicly published algorithms. About half the adult population of England uses Facebook at least once a month. About a quarter of us have “liked” more than 250 things there. So it’s really disconcerting to discover that completely banal acts on Facebook can add up to a quite detailed psychological profile.

Cambridge and Stanford scientists have discovered that Facebook likes can be mapped on to a personality profile used in clinical psychology so that you can get a remarkably accurate estimate of people’s scores on five well-established dimensions of personality just by analysing several hundred Facebook likes.

What makes this particularly spooky is that the “likes” in question are not particularly personal ones. There are, says David Stillwell, one of the researchers, something like 100,000,000,000 likes registered in Facebook’s databases. So the team ignored all the personal things that were liked, and concentrated on those few Facebook pages with more than 100,000 likes. These are almost by definition pop culture, rather than expressions of the subtleties of individual personality: to know that someone likes tanning, or Harry Potter, doesn’t really distinguish them from millions of other Facebook users. Except that, in aggregate, and given enough data, that’s exactly what it does.

The researchers started with 86,000 subjects who had filled out the 100-question personality profile – and this, of course, was done as another app on Facebook – and whose personality scores had been matched by algorithms with their Facebook likes. They then found 17,000 who were willing to have a friend or family member take the personality test on their behalf, trying to predict the answers they would give.

The results, from most humans, were stunningly inaccurate. Friends, family and co-workers were all less able to predict how someone would fill out a personality test than the algorithms that had been primed with the subject’s Facebook likes. With only 10 likes to work on, the computer was more accurate than a work colleague would be. With 150 likes, it described the subject’s personality better than a parent or sibling could. And with 300 likes to work on, it was more accurate than a spouse.

Ello might or might not replace Facebook, but the giant social network won't last forever | Ruby J Murray | Comment is free | theguardian.com

Ello might or might not replace Facebook, but the giant social network won’t last forever | Ruby J Murray | Comment is free | theguardian.com.

Ello is the ‘anti-facebook’, positioning itself as a network with a social conscience. It might not be the one to replace the social giant, but Facebook is getting old



Ello: the new Facebook?


Predicting the end of Facebook in 2014 feels reckless. Like slapping a date on the fall of the wall might have felt in the 1980s.


As of June this year, the social networking behemoth had 1.32bn active monthly users. According to the latest data from the Pew Research Centre, 71% of online adults use Facebook. Considering 73% use a social networking site, that’s pretty much: all of us.


The startup world is full of people pitching and failing the next big thing. Two days ago, though, something exciting happened. San Francisco began jumping out of Facebook’s ad-splattered soup and into the clean, empty social networking world of Ello.


Ello is crawling with bugs, isn’t out of beta testing, and it’s still taking off in starship headquarters. 31,000 new users were asking to be beta testers at this week’s peak. On Thursday, the Ello team had to shut down new invites to the site as they struggled to keep up.


The brain-child of Kidrobot designer Paul Budnitz , Ello is the “anti-facebook.” It’s been around a while, but the LGBTIQ community’s recent struggle with Facebook’s “real-name” policy has been instrumental in the shift to the site. Ello positions itself as a network with a manifesto and a social conscience. Its logo has a V for Vendetta-like menace to it: an eyeless black smiley with a spinning mouth that mocks the social gaze we are so used to feeding online.


Humans like us forget that change is the only constant. Facebook will not last forever. The only questions are why the move starts, when it does, and where the party is next.

Is there a Rihanna sex tape? No, it's a malware scam on Facebook | Technology | theguardian.com

Is there a Rihanna sex tape? No, it’s a malware scam on Facebook | Technology | theguardian.com.

But it’s not as popular as the fake app pretending to tell you who’s been peeking at your profile

Clicking on a Facebook link to a 'Rihanna sex tape' won't end well.
Clicking on a Facebook link to a ‘Rihanna sex tape’ won’t end well. Photograph: Patrick McMullan Co./REX

There is no sex tape of Rihanna and her boyfriend doing the rounds online. You can’t see who’s been looking at your Facebook profile. And you can’t change your Facebook colour either.

This may all sound obvious, but according to antivirus firm Bitdefender, these are the most popular malware scams on the social network in 2014.

The company has published a list of the top 10 Facebook scams, with the fake app promising to tell you your Facebook views and visitors by far the most popular, accounting for 30.2% of bogus links it identified on the social network this year.

Clicking on any of them will lead Facebook users to sites that try to install viruses on their computers, as malware developers continue to seek new ways to spread their software to unsuspecting victims.

The chart is good news for Taylor Swift and Disneyland, who both featured in Bitdefender’s list a year ago. Swift’s non-existent sex tape and an offer of a free trip to Disneyland have fallen from the top 10 over the last 12 months.

“Why do people still want to see who has been taking a peek at their profile, despite all security warnings? I think they believe these are legitimate apps,” said chief security strategist Catalin Cosoi.

“This is social engineering at its finest – a challenging mental game that pushes the right psychological buttons. The baits have changed over time, with stalkers, peekers, admirers, overly attached girlfriends and exes haunting you, but the reason this scam works is simple: human nature.”

¿Por qué te sientes tan mal cuando pasas mucho tiempo en Facebook? – BioBioChile

¿Por qué te sientes tan mal cuando pasas mucho tiempo en Facebook? – BioBioChile.

Robby McKee (CC)

Robby McKee (CC)

Publicado por Marcial Parraguez
¿Has tratado de animarte pasando el tiempo en Facebook? Mala idea. Un reciente estudio explica que la red social de Mark Zuckerberg aumenta la pena y te hace sentir peor.

Los psicólogos Christina Sagioglou y Tobias Greitemeyer, investigaron las emociones que produce Facebook, descubriendo que mientras más rato te quedas, peor te vas sintiendo, según explica el diario electrónico Huffington Post.

“Parece que, en comparación con la navegación por Internet, Facebook se juzga como menos significativo, menos útil, y más como una pérdida de tiempo, lo que lleva a una disminución en el estado de ánimo”, explicaron los investigadores de la Universidad de Innsbruck en Austria.

Ya en una investigación de Facebook se llegó a la conclusión de que las emociones se viralizan y que a pesar de que sí se puede bajar ánimo, también se puede subir, ocultando los mensajes o estados negativos.

Sin embargo, al contrario del sondeo hecho por la red social, los austriacos descubrieron que no importa la calidad emocional de las publicaciones que aparezcan en Inicio, porque la gente se siente miserable de igual forma.

Innovación a cambio de jugar con sentimientos | Tecnología | EL PAÍS

Innovación a cambio de jugar con sentimientos | Tecnología | EL PAÍS.

Facebook seguirá haciendo experimentos con los usuarios


San Francisco 3 JUL 2014 – 11:25 CET


Sheryl Sandberg, número dos de Facebook, ayer durante una conferencia en Nueva Delhi. / Kuni Takahashi (Bloomberg)

Cobayas sin saberlo, Facebook jugó con las emociones de 689.000 usuarios sin previo aviso para un estudio académico dando por hecho que entra dentro de los ambiguos e interminables términos de uso de la red social. A la disculpa inicial de Adam Kramer, analista de datos y responsable del estudio, se han sumado dos voces que dejan claro que no es un error y Facebook pretende seguir por esa misma senda.

Mientras que Kramer insistió en que no se quería crear malestar, sino dar con las claves para saber cómo reaccionan sus suscriptores según lo que le leen, Sheryl Sandberg, la número dos de la red social, ha sido mucho más suave. Achaca el revuelo a un error de comunicación: “Forma parte de la investigación habitual en este tipo de compañías para probar diferentes productos y nada más. Lo hemos contado muy mal. Nos disculpamos por la comunicación porque no queríamos enfadar a nadie”. Su aclaración ha sido desde Nueva Delhi, en una conferencia donde ha anunciado que ya superan 100 millones de usuarios en India.

Monika Bickert, responsable de políticas públicas en la empresa de Mark Zuckerberg, es todavía más laxa: “En el futuro tenemos que asegurarnos de que somos transparentes, tanto con los organismos reguladores como con los que usan nuestro producto. Que sepan exactamente qué estamos haciendo”.

Las respuestas, tanto de Sandberg como de Bickbert, denotan que Facebook piensa seguir explorando el comportamiento de sus usuarios para analizar su posterior reacción. James Grimmelman, profesor de la Universidad de Maryland, mantiene una posición intermedia: “Cuando se hace una investigación, se avisa. Facebook lo pone en los términos de uso, pero no avisó de que alteraría el funcionamiento que hasta entonces era normal solo a algunos usuarios”.

Facebook apologises for psychological experiments on users | Technology | theguardian.com

Facebook apologises for psychological experiments on users | Technology | theguardian.com.

The second most powerful executive at the company, Sheryl Sandberg, says experiments were ‘poorly communicated’



Sheryl Sandberg
Facebook’s Sheryl Sandberg apologises for poor communication over psychological experiments. Photograph: Money Sharma/EPA


Facebook’s second most powerful executive, Sheryl Sandberg, has apologised for the conduct of secret psychological tests on nearly 700,000 users in 2012, which prompted outrage from users and experts alike.

The experiment, revealed by a scientific paper published in the March issue of Proceedings of National Academy of Sciences, hid “a small percentage” of emotional words from peoples’ news feeds, without their knowledge, to test what effect that had on the statuses or “likes” that they then posted or reacted to.

“This was part of ongoing research companies do to test different products, and that was what it was; it was poorly communicated,” said Sandberg, Facebook’s chief operating officer while in New Delhi. “And for that communication we apologise. We never meant to upset you.”

The statement by Sandberg, deputy to chief executive Mark Zuckerberg, is a marked climbdown from its insistence on Tuesday that the experiment was covered by its terms of service. The secret tests mean that the company faces an inquiry from the UK’s information commissioner, while the publishers of the paper have said they will investigate whether any ethics breach took place. Psychological tests on human subjects have to have “informed consent” from participants – but independent researchers and Facebook have disagreed on whether its terms of service implicitly cover such use.

How does Facebook decide what to show in my news feed? | Technology | theguardian.com

How does Facebook decide what to show in my news feed? | Technology | theguardian.com.

Controversial emotion study is a reminder that the social network’s filters are constantly at work in the background

Facebook study breached ethical guidelines – researchers

How does Facebook filter my news feed?



The average Facebook user sees 300 updates a day out of a possible 1,500.
The average Facebook user sees 300 updates a day out of a possible 1,500. Photograph: DADO RUVIC/REUTERS


Facebook is secretly filtering my news feed? I’m outraged!

Not so secretly, actually. There is controversy this week over the social network’s research project manipulating nearly 700,000 users’ news feeds to understand whether it could affect their emotions.

But Facebook has been much more open about its general practice of filtering the status updates and page posts that you see in your feed when logging on from your various devices. In fact, it argues that these filters are essential.

Essential? Why can’t Facebook just show me an unfiltered feed?

Because, it argues, the results would be overwhelming. “Every time someone visits news feed there are on average 1,500 potential stories from friends, people they follow and pages for them to see, and most people don’t have enough time to see them all,” wrote Facebook engineer Lars Backstrom in a blog post in August 2013.

“With so many stories, there is a good chance people would miss something they wanted to see if we displayed a continuous, unranked stream of information.”

Bear in mind that this is just an average. In another blog post, by Facebook advertising executive Brian Boland in June 2014, he explained that for more intensive users, the risk of story overload is greater.

Using Facebook for science – a guide for megalomaniacs | Dean Burnett | Science | theguardian.com

Using Facebook for science – a guide for megalomaniacs | Dean Burnett | Science | theguardian.com.

Facebook was recently criticised for conducting research on users without their knowledge. One consideration seems to have been overlooked, however, which is that there’s nothing to say this is the only study Facebook is doing. What else could it be up to, given its influence?


A Facebook error message is seen in this illustration photo of a computer screen
Facebook seems to have many problems, but what if all of these are due to scientific experiments intended to exert control over the planet? Photograph: Thomas White/Reuters


I recently heard some commercial radio DJ’s claim that “nobody uses Facebook any more”. Facebook is the most popular social network on Earth, with more than 1 billion users, so this is really stretching the definition of “nobody”.

Given its direct access to nearly 15% of the human race, it would be fair to say that Facebook wields considerable power, so perhaps it shouldn’t be surprising to find it has been running experiments on some users, without their knowledge.

The reaction to this has been extensive and varied. Some are OK with it, many aren’t. There are people better qualified than me to discuss the ethical/methodological concerns and scientific validity of this study. But one thing that shouldn’t be overlooked is, who says this is the only research Facebook is doing? It has published the findings of one experiment, but why stop there? With its influence and resources, there’s no telling what it could be up to. Maybe the quirks and irritations many Facebook users complain about are the result of active scientific manipulation?

So here are just a few possible studies that we could be unwitting subjects for.

Facebook experimentó con 689.000 usuarios sin su consentimiento | Tecnología | EL PAÍS

Facebook experimentó con 689.000 usuarios sin su consentimiento | Tecnología | EL PAÍS.


Un usuario consulta una página de Facebbok. / reuters

Enviar a LinkedIn 65
Enviar a Tuenti Enviar a Menéame Enviar a Eskup

Enviar Imprimir Guardar

Una semana de experimento y millones de comentarios, en su mayoría negativos, han sido las consecuencias de un estudio llevado a cabo por varios ingenieros de Facebook. La mayor red social del mundo tomó 689.000 perfiles, sin aviso o consentimiento, para analizar su comportamiento alterando el algoritmo que selecciona las noticias que se ven de los amigos. Un grupo veía noticias positivas, el otro, negativas.

La indignación ha surgido al conocerse la publicación del estudio en la web de la Academia Nacional de Ciencias de Estados Unidos. Para la prueba se tomaron, exclusivamente, perfiles que escriben en inglés. El rechazo a comentar o interaccionar con los contenidos de tinte negativo, demasiado emotivos o cercanos a la tristeza, era mucho más alto. En ocasiones hasta un 90% de lo habitual. El estudio concluye que sí, que el ánimo de los comentarios de los contactos de Facebook invita a seguir en la deriva negativa o positiva, según el grupo que les tocase, al cabo de una semana.

Nos importa el impacto emocional de Facebook en las personas que lo usan

Adam Kramer, coautor del estudio

Este tipo de experimentos basados en interacción son muy comunes en ciertas webs y, sobre todo, en comercio electrónico, pero sin tener el cuenta el tinte del contenido. Se denomina A/B testing a mostrar una presentación (ya sea la distribución de la página o el estilo de los iconos) diferente bajo una misma web para poder estudiar si se emplea más tiempo en la misma, se hace más clic… pero nunca usando el tono del contenido como un componente más.

En un primer momento Facebook se limitó a decir que los posts, actualizaciones de estado, se podían consultar de manera habitual, sin matizar que la selección de una u otra opción (noticia positiva o negativa) con un fin experimental era dónde residía la ruptura de confianza con sus suscriptores. A última hora del domingo, a través del perfil de Adam Kramer, coautor del estudio y analista de datos dentro de la firma, se daba una explicación algo más concreta: “Nos importa el impacto emocional de Facebook en las personas que lo usan, por eso hemos hecho el estudio. Sentíamos que era importante investigar si ver contenido positivo de los amigos les hacía seguir dentro o si, el hecho de que lo que se contaba era negativo, les invitaba a no visitar Facebook. No queríamos enfadar a nadie”.

No queríamos enfadar a nadie

Adam Kramer, coautor del estudio

En la explicación asegura que solo afectó al 0,04% de los usuarios, uno por cada 2.500 perfiles, durante una semana a comienzos de 2012. La red social ha contestado al diario británico The Guardian que su intención era mejorar el servicio para mostrar contenido más relevante y que crease una mayor cercanía con la audiencia.

En lo que no parecen reparar dentro de la web de Mark Zuckerberg es que el malestar se crea en el momento en que se rompe lo establecido, un algoritmo similar para todos, y se experimenta con las sensaciones de sus usuarios. Tampoco matiza que el conocimiento adquirido a partir de este experimento se pueda aplicar a la publicidad contratada en su interior.

En todo caso, queda la sensación de que gracias a la publicación del estudio se ha conocido este experimento, pero cualquiera podría ser objeto de muchos otros por parte de los analistas de datos de Facebook sin necesidad de avisar. Según sus términos de uso, de manera explícita, al tener un perfil se da permiso a acceder para “operaciones internas, resolución de problemas, análisis de datos, experimentos, investigación y mejoras en el servicio”.

Sympathy can't be reduced to a Facebook button | Melissa Bradshaw | Comment is free | theguardian.com

Sympathy can’t be reduced to a Facebook button | Melissa Bradshaw | Comment is free | theguardian.com.

Let’s hope Facebook’s button stays an internal experiment – turning sympathy into a data point won’t help those posting bad news



Facebook headquarters

Facebook likes it with flowers at its headquarters in Menlo Park, California. Photograph: Kimihiro Hoshino/AFP/Getty Images


What would it mean to turn sympathy into a button? Apparently Facebook has already done so although has not yet made plans to launch it. The button has been developed as a solution to the difficulty of responding with “likes” to a status where someone posts bad news – as if users were not already able to negotiate this small hurdle.

Facebook is proposing a menu of negative emotions that you can select when posting your status, choosing from which will allow people to respond with sympathy. But there’s already the option of commenting on rather than liking bad news statuses – so if someone posts that they’re ill, for example, you can write “get well soon” instead of risking looking like you’re happy about their condition. Given the flexibility that already exists, a sympathy button seems both patronising towards users, and as though Facebook is trying to encroach further into the range and distribution of human emotions by turning them all into clickable options.

What might come after the sympathy button – disgust buttons? Rage buttons? Anyone who has ever kicked a supermarket self check-out machine as it insisted there is an unknown item in the bagging area, will know what machines have done for anger. Emotion buttons on social networks may end up like emoticons in text, which developed as an inventive and diverting way of getting around the difficulty of conveying emotions in a form of communication void of vocal or facial expression. But the trouble is that Facebook works by counting likes. It gives your status a popularity score. So if the sympathy button works in a similar way, that means that users will also get a sympathy score.

Facebook: ellas hablan de amor y ellos de sexo | Tecnología | EL PAÍS

Facebook: ellas hablan de amor y ellos de sexo | Tecnología | EL PAÍS.

 Madrid 3 OCT 2013 – 10:54 CET

El diferente lenguaje en los mensajes de mujeres y hombres.

Enviar a LinkedIn18
Enviar a TuentiEnviar a MenéameEnviar a Eskup


Donde ellas escriben “amor”, ellos escriben “follar”. Un hombre no emplea las mismas palabras que la mujer, ni un joven tiene las mismos preocupaciones que un adulto. Por si faltaban pruebas, lo han comprobado investigadores de la Universidad de Pensilvania estudiando millones de palabras en Facebook.

El trabajo Personality, Gender, and Age in the Language of Social Media: The Open-Vocabulary Approach (Personalidad, género y edad en el lenguaje de los medios sociales: El enfoque del vocabulario abierto) fue realizado por 11 investigadores, dirigidos por H. Andrew Schwartz.. Según él es el mayor estudio por su amplitud de campo, de lenguaje y de personalidad, y ha sido publicado en Plos One. 

El estudio se centró en el lenguaje empleado por 75.000 voluntarios de Facebook, 15,4 millones de mensajes y 700 millones de palabras. A diferencia de otros trabajos, la singularidad de este es que se hizo con “vocabulario abierto”, es decir que no se partió de un listado de palabras para luego contabilizar las más usadas.

Aparte de lo más fácil, como adivinar el sexo en el 92% de los mensajes o la edad (con un margen de error de tres años) en la mitad de las ocasiones, se descubren o confirman las diferencias de lenguaje entre un sexo y otro y también en función de sus personalidades. Por ejemplo, la obsesión del hombre con “mi”, y la prevalencia en la mujer del “tu”.

¿Incontinencia verbal, yo?



Por: Karelia Vázquez | 28 de agosto de 2013

Gloria Rodríguez


Cualquiera puede irse de lengua en Facebook. Hablar más de la cuenta de la vida de otros, pero lo normal es que lo haga de la suya propia. Que cuente sus problemas de tránsito intestinal o los de su niño, la épica doméstica para poner la funda del edredón, que publique un mensaje trasnochado de su ex o la foto de las cuatro botellas de vino vacías que yacen sobre la mesa de su cocina.

Antropólogos, sociólogos y psicólogos no acaban de entender por qué somos más indiscretos que nunca en el escaparate global, y tejen abundantes teorías al respecto. Y como siempre queda muy elegante citar a algún filósofo o académico para explicar nuestras conductas asilvestradas en Internet, aquí van algunas de las más recientes:

¿Por qué Candy Crush es adictivo? – BioBioChile

¿Por qué Candy Crush es adictivo? – BioBioChile.

Publicado por Nadia Flores

Candy Crush

Parece la pregunta más común entre los más de 50 millones de jugadores activos de Candy Crush, quienes aseguran que el ahora juego más popular de Facebook es irresistible e incluso adictivo.

Se juega más de 600 millones de veces al día y genera más de US$600.000 al día, según reportes no oficiales. Pero, ¿existe una explicación para que este juego sea tan adictivo?

Candy Crush, que posee 400 niveles, es bastante simple y consiste en ordenar dulces del mismo color para pasar etapas. Según sus creadores es posible superar el desafío sin gastar un solo peso, sin embargo -y sin lugar a dudas- cuesta bastantes horas de dedicación.

Tom Stafford, profesor de psicología y ciencias cognitivas de la Universidad de Sheffield, la adicción a este juego tiene que ver con que genera “tareas incompletas”, un fenómeno psicológico llamado “efecto Zeigarnik”, consignó BBC.

El uso de Facebook no hace feliz al usuario – El Mostrador

El uso de Facebook no hace feliz al usuario – El Mostrador.

14 DE AGOSTO DE 2013

Un estudio de la Universidad de Michigan encontró que cuanto más las personas usaban la popular red social durante un período, peor se sentían después.

Las redes sociales han contribuido enormemente a que las personas se sientan más conectadas pero su uso no las hace, necesariamente, más felices, según un estudio de usuarios de Facebook, distribuido en Public Library of Science.


La extraña pero sincera advertencia de Facebook… sobre el propio Facebook


Gabriela Ulloa

Domingo 11 noviembre 2012 | 16:16
Imagen:FacebookImagen: Facebook

La popular red social Facebook, que actualmente supera los mil millones de miembros, realizó una extraña advertencia a principios de noviembre que llamó la atención de los usuarios y los medios de comunicación.

Por medio de su página oficial, la plataforma señaló que “Las tortas de cumpleaños están hechas para unir a las personas. Dan a los amigos una excusa para juntarse y celebrar. Pero mucha torta probablemente no es saludable. Por ello, una torta de cumpleaños es muy similar a Facebook”.