Archives

Facebook va bientôt mesurer le ROI de ses impressions publicitaires

22 novembre 2012 Publié par Laissez vos commentaires

Désormais ce n’est plus une surprise, Facebook cherche à rentabiliser ses services au maximum. Le géant américain peine à trouver des solutions profitables malgré son audience d’1 milliard d’utilisateurs et son arrivée à Wall Street en mai dernier (qui laisse encore certains dubitatifs lorsque l’on connaît la situation de Facebook).

 

Cette entrée en bourse fait d’ailleurs davantage office de couteau sous la gorge plutôt que de réel conte de fées. Une des principales raisons : la transparence ordonnée par cette activité boursière qui l’oblige notamment à dévoiler certains résultats plutôt embarrassants (comme le pourcentage de faux-comptes par exemple).

 

Le réseau social doit donc encore se débattre pour affirmer sa crédibilité auprès de ses annonceurs en raison de facteurs de craintes telles que :

 

  • sa politique de confidentialité encore douteuse ;

 

  • des leviers de monétisation qui laissent sceptique ;

 

 

  • une base de données à épurer/authentifier (10% de comptes obsolètes) :

 

 

  • et surtout affirmer son implication dans l’acte d’achat … 

 

 

 

Suite à cela est arrivé un nouveau leitmotiv pour Facebook : lancer la machine à innover pour implanter des solutions rentables d’un point de vue commercial.

 

Les premiers fruits de cette politique d’innovations se sont d’ailleurs très vite concrétisés sous plusieurs aspects tels que les promotions de posts (page et profil), les offres commerciales, boutons want, boutique cadeaux… En somme, rien de révolutionnaire pour nos chers publicitaires.

 

 

Unnouveausystèmedetracking

 

Néanmoins la dernière trouvaille en date risque de faire beaucoup parler d’elle en évitant le “pschiit” des précédentes tentatives.

 

Cette innovation porte un nom: “Views Tags” et elle devrait arriver avant la fin du mois (enfin tout du moins aux Etats-Unis).

 

Ce système technique permet aux annonceurs de déposer des cookies sur les profils d’utilisateurs qui voient leurs publicités Facebook sans pour autant cliquer dessus.

 

En d’autres termes cela permet aux marketeurs de quantifier  l’impact de la publicité ciblée Facebook sur l’achat final sans même l’interaction d’un clic !

 

 

L’intérêt essentiel ? Mesurer le retour sur investissement de vos campagnes Facebook ads.

 

Or ce n’est vraiment pas du luxe quand on voit certaines enquêtes américaines qui affirment que 80% des clics sur les Facebook ads proviendraient de bots. Les doublons, profils fantômes ou autres «spammeurs» nuisent à la crédibilité de Facebook face aux annonceurs alors que la publicité ciblée est un vecteur économique vital pour le réseau social. C’est d’ailleurs pour cette raison que l’entreprise de Mark Zuckerberg officialisait un grand ménage afin de certifier chacun de ses comptes comme étant ratifié à un utilisateur bien réel.

 

Naturellement, l’outil se base sur l’impression et non le regard de l’internaute. Cependant, une métrique pareille permet de voir la corrélation entre l’affichage des publicités et l’incidence sur votre CA généré via votre plateforme e-commerce.

 

A n’en pas douter, l’outil est un bol d’oxygène pour Facebook qui depuis plusieurs mois lutte pour affirmer son business model. Cet élément technique s’avère aussi être un avantage compétitif face à son concurrent direct: Google, qui lui ne se lasse pas de se revendiquer des ventes qui pourraient provenir d’autres canaux de communication que les siens (Facebook compris).

 

Bref, du pain béni pour l’équipe de Mark Zuckerberg qui grâce à cette analyse “ROIste”, va pouvoir mieux séduire des annonceurs qui ne seront plus frileux d’investir sur sa plateforme.

 

 

Commentçamarcheconcrètement?

 

Le système s’appuie sur l’ID utilisateur qui ensuite convertit un objectif sur votre plateforme.

 

Au lieu d’utiliser des cookies traditionnels, Facebook contre-vérifie l’identification et associe les impressions d’annonces  directement aux profils des utilisateurs.

 

  • L’internaute voit la pub mais ne clique pas

 

  • Facebook implante un cookie

 

 

  • L’internaute devient un client grâce à un achat ou une conversion

 

 

  • L’annonceur détecte quel type de publicité l’internaute a vu 

 

 

 

 

Alors oui vous allez me dire : “mais pourquoi ça n’a pas été fait plus tôt ?”

 

Tout d’abord, il faut savoir que le programme est en test restreint depuis plus d’un an avec une sélection de partenaires “élites”.

 

De surcroît, le programme tardait à venir pour une raison évidente : se protéger sur le sujet de l’utilisation/diffusion des données personnelles de l’internaute.

 

Ce qu’il faut savoir c’est que l’utilisation des Cookies dans le e-commerce est très réglementée. Par exemple la durée de vie d’un cookie est d’une durée de 2 ans (via un renouvellement automatique) pour Google. Cependant, ceux concernant les annonces publicitaires Google ont une durée de vie inférieure avec 30 jours maximum. En outre, ce cookie ne permet pas de vous identifier personnellement ni même d’effectuer le suivi d’un même cookie sur plusieurs sites Web d’annonceurs (ils sont tous disctints). Naturellement cette expiration peut être prématurée si l’internaute décide de les supprimer de manière manuelle (ou même d’interdire tout court l’implantation de cookies).

 

Or il s’agit du point faible du display qui n’est principalement mesurable que par le biais d’un outil fixe et non une “identité consommateur”. Par conséquent l’impression est difficile à associer avec une future conversion s’il n’y a pas eu de clic au préalable…

 

Outre le célèbre gâteau, un cookie est un fichier informatique qui permet de collecter des données anonymes sur différents critères d’ordres démographiques (localisation, langues…) et techniques (mobile/ordinateur, navigateur…). En règle générale, le tout est bien entendu lié à l’interaction entre un poste fixe et l’action avec des campagnes publicitaires (à noter que ça ne sert pas qu’à ça).

 

Bien entendu, les informations commerciales sont anonymes et les valeurs d’analyses sont uniquement chiffrées.

 

Par conséquent vous connaîtrez le nombre de produits vendus, le CA généré mais à aucun moment vous n’aurez des informations confidentielles pour contacter/identifier les clients. Quid encore de certaines données représentatives comme le sexe, âge, géolocalisation qui pourraient très bien être divulguées. Rien ne le laisse présager et ces informations n’ont toujours pas été communiquées par Facebook.

 


 

Ainsi de manière classique, il est possible d’identifier quelle annonce et/ou canal de communication est le plus productif dans la conversion.

 

Lorsqu’on parle de “conversion” cela n’implique pas obligatoirement un achat mais bien d’autres objectifs qui ont un intérêt pour vous selon vos besoins.

 

Il peut s’agir par exemple d’une inscription à une newsletter, un contact via un formulaire, la simple consultation de fiches produits spécifiques…

 

De surcroît, il était déjà possible de mesurer vos performances commerciales grâce à Facebook mais cela impliquait obligatoirement (encore) le clic de l’internaute.

 

Voici les deux types de moyens classiques qui existaient pour déterminer l’impact de Facebook dans votre réflexion commerciale :

 


 

1°) Conversion directe

 

L’internaute…

  • clique sur votre pub puis consomme sur votre site internet ;

 

  • clique sur le lien tracké dans une de vos publications et consomme sur votre site internet ;

 

 

 

2°) Conversion indirecte

 

L’internaute clique sur une pub Facebook pour aller sur votre site internet puis consomme plus tard avec d’autres étapes au préalable.

 

La conversion est enregistrée grâce à l’identification des réseaux sociaux (et Facebook entre autres) dans le tunnel de transformation multi-canal.

 

 

Ex: L’internaute clique sur l’annonce Facebook, consulte votre site internet, le quitte puis quelques jours plus tard va “Googler” votre nom pour ensuite consommer.

 

 

Enfin l’opération est aussi mesurable en magasin si l’internaute bénéficie d’une “Offre Facebook” et vient consommer en magasin ou profite tout simplement de son code promo sur internet.

 

 

 

L’intérêtprimordialaveccettesolutiontechnique?

 

Réajuster un maximum le rapport Coût de l’impression / Conversion pour améliorer votre ROI. Ce n’est pas parce que votre annonce a plus de clics que cela veut dire qu’elle va convertir plus derrière.

 

Une publicité peut moins inciter le call to action et pourtant peut être mieux identifiée et/ou s’inscrire dans l’esprit du consommateur pour améliorer votre notoriété spontanée.

 

Le rapport entre la lecture et la conversion est donc une nouvelle métrique à prendre en compte pour la publicité Facebook.

 

View tags est aussi une métrique importante dans les opérations publicitaire qui mise sur le court terme. Cette affichage publicitaire pourrait très bien être comparé au format Ad Words qui se veut par nature avoir une réflexion court-termiste. Le format publicitaire permet effectivement de mieux “recruter” des clients sur des opérations marketing immédiates (ventes flash par exemples).

 

 

Plusieursretoursd’expériences

 

Techcrunch a d’ailleurs mené son enquête auprès des premiers partenaires du projet.

 

Suite à l’analyse d’un des cas de figure, ils affirment que 87% des conversions sur une campagnes provenaient des impressions et non des clics (plutôt intéressant sur 5 924 conversions acquises).

 

Avec une autre opération, nos confrères américains dévoilaient un taux de conversion de l’ordre de 34,6% grâce à uniquement l’impression publicitaire, soit 29% du CA sur l’annonce.

 

 

Critèrestechniquesrequis

 

View tags ne peut marcher que selon les conditions suivantes :

  • les serveurs Facebook doivent être en mesure d’établir une connexion avec le serveur du tag

 

  • un pixel de tracking 1×1 px doit être mis en place sur l’URL finale (votre plateforme e-commerce)

 

 

  • l’URL finale doit avoir un certificat SSL/TLS validé

 

 

  • le Tag ne doit pas implanter plus d’un cookie

 

 

  • le contenu du cookie doit faire moins de 1 024 caractères (1 kb).

 

 

  • les serveurs Facebook doivent recevoir la réponse du tag en moins d’une seconde

 

 

  • la balise ne doit pas créer de redirection, sauf si c’est nécessaire pour repositionner le pixel de tracking et seulement à partir du même nom de domaine que le tag

 

 

 

Les informations sont déjà disponibles sur la plateforme Facebook developers si vous désirez d’autres détails techniques.

 

En définitive le tracking Views Tags détient un fort potentiel pour donner un nouvel élan aux Facebooks ads et pourtant il reste une limite à l’attribution de l’objectif à Facebook. Il vous faudra calculer le temps entre la consultation sur Facebook et la visite sur le site. La pub sur Facebook a-t-elle vraiment déclenchée l’acte d’achat ? A quelle hauteur y a-t-elle contribué ?

 

Depuis les outils d’Analytics de facebook il est nécessaire de suivre le parcours de l’internaute, l’ordre des différents canaux utilisés par l’internaute pour connaître l’impact de la pub facebook et répondre à ces questions :

 

Est-ce que l’internaute connaissait déjà le site avant de “voir” la pub sur facebook ? (cookie du site déjà présent). L’exposition de l’internaute à la publicité sur Facebook est-elle réellement la dernière étape avant l’achat ? Si l’internaute revient via un moteur de recherche, le fait-il via le nom du site ?

 

 

Bref, de quoi pimenter un peu plus les réflexions marketing dans l’analyse social media.rtaine attirance pour l’art, la photographie le sport et surtout la musique (je ne passe pas un seul jour sans ma guitare).

 

Pinterest crée des pages pour les marques

19 novembre 2012 Publié par Laissez vos commentaires

Pinterest, réseau social de curation d’images, annonce sur son blog le lancement d’une catégorie de pages réservées aux marques, qui pourront y assurer leur promotion. Les entreprises peuvent même disposer d’un badge certifiant l’aspect officiel de leur page, ce qui leur permettra d’être mieux référencées, et de nouveaux boutons, qu’elles pourront intégrer à leur site.

Ping : l’échec derrière les succès d’Apple

19 novembre 2012 Publié par Laissez vos commentaires
Ping : l’échec derrière les succès d’Apple

Lors de la keynote présentant l’iPhone 5, Tim Cook a mentionné l’arrêt définitif du réseau social d’Apple, Ping. Vous vous en n’êtes pas aperçu ? Normal, le PDG d’Apple est passé très vite à autre chose…

Ping, l’échec discret d’Apple

Apple fanfaronne avec son iPad Mini vendu 329 dollars (lui coûtant en réalité 188 dollars !), mais se fait plus discret quant à l’annonce de la mort de leur réseau social Ping lancé en 2010.

Lancé en grande pompe, Steve Jobs présentait son nouveau prodige comme la rencontre de Twitter et Facebook avec le logiciel iTunes :

“It is like Facebook and Twitter meet iTunes […] It is not Facebook. It is not Twitter. It is something else we’ve come up with. It’s all about music.”

“It is like Facebook and Twitter meet iTunes […] It is not Facebook. It is not Twitter. It is something else we’ve come up with. It’s all about music.”

Cette nouvelle plateforme était dédiée à l’échange entre les fans utilisateurs de l’iTunes Store et les artistes avant tout acte d’achat. Il était possible de suivre l’actualité musicale de ses artistes préférés, voir ce qu’écoute ou achète leurs amis et découvrir de nouveaux sons. Rien de plus.

Quelques mois après, Tim Cook tenu une allocution qui ne laissait présager rien de bon quant à l’avenir de Ping :

“We tried Ping, and I think the customer voted and said, ‘this isn’t something that I want to put a lot of energy into’ I don’t know if Ping will survive. We’ll look at it.”

Près de deux ans après son lancement, CNN qualifiait Ping de grand flop technologique avec un million d’utilisateurs (pour 400 millions de comptes sur l’iTunes Store rappelons-le).

Les causes de l’échec

Grand précurseur sur des marchés tels que les Smartphones ou les tablettes tactiles, Apple a plus de mal quand il s’agit d’être un « suiveur ». En entrant dans le secteur des réseaux sociaux, déjà bien bâti, Apple s’y ait cassé les dents.

La première et plus grande raison de cet échec tient en un seul mot et en une action quotidienne faîte par des millions d’utilisateurs actifs : Facebook. En effet, il semblait évident que Ping ne pouvait faire face au géant Facebook, aucun autre réseau social n’y ait parvenu. Mais ce n’est pas tout. Steve Jobs était bien conscient que son réseau social ne pouvait rien contre la plateforme de Zuckerberg. La seule solution était de l’intégrer. Facebook était effectivement bien intégré à Ping à son lancement jusqu’à que cela arrive aux oreilles de Mark Zuckerberg. Pour ne pas avoir tenu au courant de ses intentions d’intégration, le fondateur de Facebook a coupé court au projet d’Apple. En coupant l’accès à Facebook, Zuckerberg a scellé à tout jamais le sort de Ping.

Par la suite, lors d’une conférence All Thing Digital, Jobs avait révélé ne pas s’être entendu avec Facebook.

« Les termes imposés par Facebook étaient trop onéreux », avait-il dit alors. Jobs ne voulait pas verser un centime à Facebook, c’était là une belle erreur stratégique. Pourtant, quand son biographe Walter Isaacson, lui avait demandé quelle personne il admirait le plus dans la Silicon Valley, Mark est le premier nom à être sorti de sa bouche.

Mis à part la non-intégration de Facebook, d’autres facteurs expliquent la fin prématurée de Ping dont : l’implication faible d’artistes (Lady Gaga avait crée une page…non actualisée depuis plus d’un an !), l’impossibilité de modifier son statut, l’impossibilité d’écouter de la musique avant l’inscription, les excessives offres intrusives pour acheter de la musique, rigidité du service, fonctionnalités limitées…bref, Spotify et Deezer, qui suivirent le lancement de Ping, auront réussi là où Apple n’en a pas été capable.

Comment Twitter innove son business model

18 novembre 2012 Publié par Laissez vos commentaires

Depuis son lancement en 2006, Twitter est un outil social difficile à expliquer au néophyte. Et si vous ne l’avez jamais utilisé, observez-moi avec attention ne même pas essayer de le faire. Ceci étant Twitter est un vrai succès dans l’univers brutal du web 2.0. Avec plus de 140 millions d’utilisateurs et 340 millions de tweets quotidiens, Twitter a grignoté une place confortable dans l’ombre de Facebook, rendant des services insoupçonnables à son lancement.

Si je cherche à analyser sa valeur ajoutée en ce qui me concerne, Twitter est devenu un outil central dans la résolution de quatre problèmes :

  • Faire de la veille sur des sujets pointus sans avoir à monter une usine à gaz ;

 

  • Contacter des personnes intéressantes rapidement et sans être envahissant ;

 

 

  • Interagir à distance de façon rapide et légère (moins intrusif que le mobile ou le SMS, moins lourd que le mail) et mettons-le dans ce panier, suivre à distance des évènements ;

 

 

  • Et finalement, suivre la propagation d’une nouvelle information avant que tout autre média l’ai encore captée.

 

 

Sur ce dernier point, la recherche s’empare d’ailleurs maintenant de Twitter pour faire du suivi épidémiologique :

twitter épidémiologie merkapt

La montée en puissance rapide de twitter s’est faite jusqu’à présent par une politique d’ouverture remarquable. Le site social était finalement une super API (une brique logicielle servant à interfacer des programmes entre eux) utilisée par de nombreux développeurs pour proposer leur version personnelle de Twitter. A tel point que le site web de Twitter a toujours été considéré comme une démo, plus l’endroit où réellement utiliser le site social. Tweetie de la société atebits aura probablement été l’un des plus marquants, racheté depuis par Twitter et ayant inventé au préalable le maintenant célèbre « pull to refresh » :

UX pull to refresh merkapt

Bien qu’annoncé depuis déjà assez longtemps, depuis quelques mois Twitter opère maintenant une reprise en main très marquée. Sans être technique le site a commencé à établir des limites très fortes au nombre d’utilisateurs que pourront gérer des clients tierce-partie, ou le volume et la fréquence des flux de tweets qu’ils pourront gérer. Une façon claire de stopper dans son élan les développeurs externes qui ont permis de bâtir une masse critique d’utilisateurs enthousiastes et de refaire venir ces utilisateurs vers le site web et l’application mobile officielle.

Très honnêtement cela ne me scandalise guère. Il serait assez naïf de penser qu’une entreprise comme Twitter soit pilotée comme Médecin Sans Frontière. On sait donc à quoi on s’engage en chevauchant un tigre. En étant un utilisateur je peux même me réjouir de l’effort que doit finalement maintenant l’équipe de développeurs internes de Twitter pour se mettre à niveau et proposer de nouvelles fonctionnalités cruellement manquantes jusqu’à présent. Et le fait de se remettre au centre de la discussion avec les utilisateurs est le meilleur moyen de le faire (au lieu d’utilisateurs je devrais parler de « clients non-payants », mais ce sera l’objet d’un autre article) .

Nous avons ainsi maintenant une très efficace et belle fonction d’intégration des tweets dans un site web, qui peut présager d’évolutions vers un site de plus en plus social :

 

 

Mais surtout des ballons d’essais très significatifs sur ce que pourrait devenir Twitter s’il se mettait à devenir une plate-forme de visualisation de l’information mondiale :

Twitter US political engagement map 2012 merkapt

 

Et bien entendu, le livrable final dans ce cas de figure est un indice de popularité instantané :

twitter us political index merkapt

Dès lors que Twitter recapte maintenant tous les utilisateurs directement dans son écosystème, il va être intéressant de suivre quelle direction ils vont finalement privilégier :

(1) Un site social cherchant à concurrencer Facebook sur son propre terrain : la vie de tous les jours et les échanges du quotidien pour le grand public avec plus de photos, plus de façons simples de regrouper ses amis et peut-être bientôt des cercles à la Google+ ?

(2) Ou, et c’est différent, un site de diffusion et d’analyse de l’information mondiale orienté vers la data-mining et la visualisation des données, pour concurrencer la recherche de Google qui pointe de façon « neutre » (il y aurait évidemment beaucoup à dire) vers des résultats, en proposant au contraire une interprétation de notre monde ?

Dans les deux cas Twitter semble avoir une place à prendre. Mais les modèles économiques seraient probablement très différents.

L’option (1) est celle d’un Twitter hyper-social étendant son emprise vers le grand public (le B2C) et attaquant certes facebook mais aussi pourquoi pas, le SMS ou même le courrier électronique. Dans ce cas il est certain que nous voyions fleurir de plus en plus de liens sponsorisés, de services dédiés aux marques, de propositions de remises sur des opérations commerciales, etc :

twitter promoted tweets merkapt

L’option (2) serait plutôt de celle d’un Twitter nouveau média, capable de donner avant tout le monde une vision du monde et de la société dans toutes ses dimensions : sociale, économique, commerciale, politique, artistique, etc. Sans enlever la possibilité de monétiser des liens sponsorisés, l’étendu d’un tel service permettrait alors d’aller concurrencer avec énormément de pertinence Reuters, les instituts de sondage, mais aussi IBM, Gartner, et autres cabinets de conseil. L’approche vers les entreprises (B2B) serait certainement très rémunératrice.

Cette courte discussion sur l’avenir de Twitter pointe bien notre vision de l’innovation au  travers du business model et la façon dont son approche ne doit pas concerner la dimension technologique de façon très privilégiée. L’avenir de Twitter se pilote en organisant son écosystème, sa stratégie de monétisation, mais surtout sur une vision de sa valeur ajoutée qui décidera au final de son orientation finale.

Bien entendu si tout cela en tant que client non-payant de Twitter vous cause quelque gêne que ce soit, vous pouvez toujours vous tourner vers App.net qui reprend à son compte ce que beaucoup attendaient de Twitter :  un service de micro-blogging ouvert et neutre pour les professionnels de la technologie (non, je n’ai pas dit geeks). Les engagements de App.net sont en tout cas clairs : « Nous vendons notre produit, PAS nos utilisateurs » et « Vous êtes propriétaires de votre contenu ».

Mais si nous parlons de valeur ajoutée, êtes-vous prêts à payer ne serait-ce que 36$ par an pour gagner cette bataille dans guerre de la neutralité d’internet ?

5 astuces pour contourner le NOT PROVIDED de Google

15 novembre 2012 Publié par Laissez vos commentaires

D’après une étude d’Optify le taux de Not Provided a sévèrement augmenté. Depuis que le protocole SSL a été intégré aux moteurs de recherche de Google le taux de Not Provided à augmenté de 40%. Optify propose donc 5 astuces pour remédier au problème.

Les données d’Optify, collectées sur 11 mois auprès de 424 sites B2B, révèlent une forte croissance du taux de Not Provided. Au mois de novembre 2011 le taux de Not Provided était de 14%, au mois de septembre 2012 il était de 39%. Le taux de Not Provided a non seulement augmenté, mais il a aussi doublé de volume.

Inversement, le taux de mots clés visibles dans les statistiques d’un site est en déclin annonce Optify. Une chute de la visibilité des mots clés qui s’élève à 49% en l’espace de 11 mois ! À cause du cryptage SSL opéré par Google à ses moteurs de recherche dans le but de crypter les données d’utilisateurs, 50% des mots clés issus de la recherche organique ne sont plus visibles.

Graphiques: Progression du Not Provided

Graphique de l’évolution du Not Provided :

Depuis le lancement du protocole SSL le taux de Not Provided a augmenté de 171% en moyenne. Une visite sur 2,5 visites depuis les résultats naturels de Google est maintenant désignée comme Not Provided.
Graphique Optify: Croissance du Not Provided depuis 11 mois d'études
Quelques données de l’étude d’Optify :

  • Novembre 2011: sur 1,4 millions de visites en provenance des résultats organiques du moteur de recherche de Google, le taux de Not Provided était de 14 %.
  • Avril 2012 : sur 1,6 millions de visites en provenance des résultats organiques du moteur de recherche de Google, le taux de Not Provided était de 29 %.
  • Septembre 2012 : sur 1,3 million de visites en provenance des résultats organiques du moteur de recherche de Google, le taux de Not Provided était de 39 %.

Graphique du taux de Not Provided par agences :

64% des agences voient 30 à 50% de leur trafic Google dévoré par le Not Provided, révèle Optify.

  • 35% des sites analysés par Optify ont 30 à 40% de Not Provided.
  • 29% d’autres sites analysés ont 40 à 50% de Not Provided.

Graphique Optify: Not Provided par sites analysés
Dans un autre graphique Optify montre que 81% d’agences voient plus de 30% de leur trafic Google en Not Provided.

Les 5 astuces d’Optify

Optify propose 5 astuces pour contourner le protocole SSL intégré dans les moteurs de recherche de Google.

  1. Profiter des mots clés visibles.
  2. Google Webmaster Tools propose des données : requêtes les plus fréquentes, pages de destination les plus fréquentes, le taux d’impressions, les clics, le taux de clics, la position moyenne dans les résultats de recherche pour chaque requête.
  3. Utiliser d’autre données : contenus connexes, pages de destination ciblées – landing page -, suivi des courriels, maturation des leads – pour convertir des clients potentiels en clients.
  4. Utiliser des proxys : pour associer les mots clés avec les comportements des visiteurs du site, notamment les pages vues et le temps passé sur la page.
  5. Utiliser des données du Pay Per Click – PPC – pour estimer les performances de mots clés que vous visez.

Les astuces d’Optify pour contourner le Not Provided vous conviennent-elles ? En avez-vous d’autres ? N’hésitez pas à les commenter.

Google Play Music disponible en Europe

13 novembre 2012 Publié par Laissez vos commentaires

Google Play Music est disponible aujourd’hui avec son service de stockage et de synchronisation en ligne en Europe. La France, l’Italie, l’Espagne, l’Allemagne et le Royaume-Uni pourrons donc profiter du service maintenant, à cette adresse.

En France, le service porte le nom de Google Play Musique et dispose de toutes les fonctionnalités annoncées comme :

  • La possibilité d’acheter de la musique, que vous pourrez écouter par la suite librement en streaming. Vous pourrez acheter un morceau ou un album entier.
  • D’acheter ou de louer des films.
  • D’ajouter vos propres morceaux afin de pouvoir les écouter en ligne : plus de 20 000 morceaux pourront être ajoutés gratuitement. Il faudra cependant télécharger le client Google Music Manager, vos coordonnées bancaires devront être renseignées pour cela.

Tous les morceaux proposés sont au format MP3, sans DRM avec un débit de 320 kb/s, mais Google Play Musique supporte les fichiers au format : m4a, wma, flac et ogg. Concernant les tarifs, les morceaux sont proposés entre 0.99 et 1.29 € et les albums entre 4.99 et 19.99 €.

Google Play Musique