Le cyberblog du coyote

 

Extra

Editorial

Ce blog a pour objectif principal d'augmenter la culture informatique de mes élèves. Il a aussi pour ambition de refléter l'actualité technologique dans ce domaine.

mardi 8 novembre 2011

Google rafraîchit ses résultats!

Il y a un peu plus d'un an maintenant, Google Search a entièrement migré sa plateforme vers Caffeine, une nouvelle architecture permettant d'indexer beaucoup plus rapidement les nouvelles pages web. Bien que la plateforme soit pleinement active depuis plusieurs mois, l'algorithme de recherche de Google, basé sur le PageRank, ne se servait pas jusqu'à présent de ces fonctionnalités.
L'ingénieur Amit Singhal explique ainsi « si j'effectue une recherche pour le terme "olympics", je souhaite probablement obtenir des informations sur les prochains jeux olympiques de cet été plutôt que ceux de l'été 1900 ». Ainsi des résultats plus récents ou plus "frais" sont synonymes de pertinence. C'est donc pour ça que le géant du web va déployer dans les jours à venir son nouvel algorithme afin de mettre en avant ces résultats.
D'après la firme californienne, les résultats devraient ainsi être affectés de 35%, bien plus que les 12% de la dernière mise à jour, Panda. Google donne d'ailleurs plus d'informations quant aux résultats qui vont principalement être impactés :

  • Les récents évènements ou les sujets d'actualité. Pour les récents évènements ou les sujets d'actualités qui commencent à être en vogue sur le web, vous voulez trouver les dernières informations immédiatement. Maintenant quand vous cherchez quelque chose en cours comme "occupy oakland protest" vous verrez en priorité les pages de qualités vieilles de quelques minutes seulement.
  • Les évènements réguliers. Certains éléments se déroulent régulièrement au fil du temps, tels que les conférences annuelles ou les élections présidentielles. Sans spécifier de mot clé, il est implicite que vous souhaitez voir l'évènement le plus récent, et non pas celui d'il y a 50 ans.
  • Sujets régulièrement mis à jour. Il y a aussi les recherches qui changent souvent, mais qui ne sont pas vraiment des sujets d'actualité. Par exemple, si vous cherchez le meilleur appareil photo, ou la meilleure voiture, vous voulez probablement l'information la plus à jour.

Source : Sur-la-Toile

vendredi 4 novembre 2011

Facebook garde tout en mémoire

Un jeune étudiant autrichien a découvert que les données qu'il avait effacées de son profil Facebook étaient conservées sur les serveurs du géant américain. Il a déposé 22 plaintes contre Facebook. Vous avez dit David et Goliath?

Voir le reportage sur nouvo.ch

mardi 27 septembre 2011

Facebook vous espionne

Selon l'australien Nik Cubrilovic, se déconnecter de Facebook ne suffit pas pour cesser d'envoyer des données au réseau social. Ce spécialiste de la sécurité informatique a récemment publié sur son blog un article expliquant le fonctionnement particulier des cookies de Facebook. Pour rappel, les cookies sont de petits fichiers qui vont venir se stocker sur l'ordinateur et qui permettent à l'utilisateur de rester authentifié sur un site web. Ainsi, lorsqu'un utilisateur va se déconnecter, Facebook va modifier ses cookies de sorte que ces derniers continuent à suivre la navigation de l'internaute, et puissent communiquer ces informations au site du réseau social.
Facebook se défend de son côté et nie épier les utilisateurs dans le but de proposer de la publicité ciblée. Il assure que ces données servent à la sécurité ainsi que la protection des comptes, et permettent d'améliorer les services fournis. Nik Cubrilovic conclut son billet en expliquant avoir informé Facebook de sa découverte depuis novembre 2010, mais indique n'avoir jamais obtenu de réponse de leur part.

Source : Sur-la-Toile

lundi 22 août 2011

Plus de jeunes que l'on ne croit s'ennuient sur les sites sociaux

On vient de remarquer qu'un groupe clé d'utilisateurs de Facebook, Twitter ou même YouTube utilise ces sites de moins en moins. Un quart des 18-29 ans auraient déclaré lors d'une étude de la société Gartner que leur utilisation des médias sociaux a baissé depuis qu'ils se sont inscrits : la plupart de ceux-là parlent d'ennui ; d'autres ont parlé de la superficialité des « amis virtuels » et ont émis des préoccupations concernant leur vie privée.
D'un autre côté, 37 % d'entre eux ont dit qu'ils utilisaient plus ces médias sociaux que par le passé. Dans tous les cas, les chercheurs ont remarqué qu'en dépit du battage médiatique, les sondés n'interagissent pas plus d'un mois en moyenne sur leur site social favori. Cette recherche a montré que la plupart des utilisateurs des médias sociaux sont passifs : ils regardent le plus souvent des photographies, sur Facebook ou Picasa par exemple. La plupart des utilisateurs ont moins de 100 amis virtuels.

Sources : Sur-la-Toile, The Telegraph

lundi 18 juillet 2011

Internet changerait notre façon de penser

D’après une équipe de psychologues, nous cherchons désormais moins à nous souvenir d’informations que nous savons retrouver sur Internet ou sur un ordinateur. En revanche, nous faisons davantage l’effort de mémoriser l’endroit où se trouve l’information. Bref, on s‘adapte, comme chacun, d’ailleurs, l’aura remarqué…
« Marignan ? euh, non je me souviens plus mais c’est pas grave c’est sur le Web ». L’Homo sapiens a développé de nombreuses stratégies pour retenir des quantités énormes d'informations, un domaine où il excelle, comme par exemple, appendre en marchant ou aller dormir. Il viendrait d'en ajouter une autre : profiter d'Internet, où l'on trouve tout. C’est ce que concluent Betsy Sparrow, de l’université Columbia, et Jenny Liu, de l’université du Wisconsin-Madison, dans un article qui vient de paraître dans Science et intitulé : Google Effects on Memory: Cognitive Consequences of Having Information at Our Fingertips, ou encore L’effet Google sur la mémoire : conséquences cognitives de disposer de l’information sur le bout des doigts.
Pour mettre en évidence cet « effet Google », les chercheuses ont placé des étudiants dans différentes situations où ils devaient mémoriser des informations. La première expérience a mis en évidence que les moteurs de recherche sont très présents à l’esprit dès qu’il s’agit de chercher une information. Les étudiants se voyaient interrogés sur des questions ardues de culture générale puis, immédiatement après, devaient réaliser des tests ultrasimples de reconnaissance de couleurs sur des mots. Les temps de réponse étaient précisément mesurés et les auteurs démontrent que des mots liés à des moteurs de recherche, comme par exemple « Google » et « Yahoo », étaient interprétés plus rapidement. Conclusion des psychologues : ces mots-là étaient dans la tête des cobayes, et l’on peut en déduire que face à une question à la réponse inconnue, l’homme moderne pense d’abord à Google et à Yahoo.

La fin de l’apprentissage par cœur ?

Dans une seconde expérience, les étudiants devaient faire l’effort de se souvenir d’affirmations, du genre « une bande caoutchoutée est moins longue quand elle est refroidie ». À certains, il était précisé que l’information, qu’ils auront tapée eux-mêmes sur un ordinateur, serait conservée tandis que d’autres apprenaient qu’elle serait effacée. Résultat : ces derniers s’en souviennent bien mieux… Quant à ceux qui savaient que les réponses seraient enregistrées, les auteurs de l’étude démontrent qu’ils se souviennent mieux du dossier dans lequel l’information est censée être sauvegardée que de la réponse elle-même. Que peut-on conclure de ces conclusions qui n’étonneront personne ? D’après Betsy Sparrow et Jenny Liu, cette adaptation à l’informatique correspond à la « mémoire transactive », décrite par Daniel M. Wegner. Elle consiste en une forme de mémoire collective, où l’on se sert des informations que l’on sait connues de nos proches, conjoints, famille, amis ou collègues de travail. Elle s’étend aux livres et, aujourd’hui, à l’ordinateur et au Web. Selon les auteurs, l’observation montre peut-être que tous ceux qui ont quelque chose à enseigner (professeurs, cadres d’entreprise…) ou à apprendre ont désormais tendance à davantage se focaliser sur la compréhension des mécanismes plutôt que sur les données brutes.Verra-t-on la fin du par cœur ?

Source : Futura-Sciences

vendredi 17 juin 2011

Recherche par image sur Google

On pourra bientôt déposer une image dans la barre de recherche de Google pour trouver des images correspondantes. Pratique pour trouver le titre d'une peinture ou identifier un endroit, une plante ou un animal.

vendredi 10 juin 2011

IPv6 est passé !

L'internaute lambda n'a rien vu passer, mais c'est une révolution attendue depuis des années. C'est la mise à jour de l'internet tout entier qui s'est déroulée sans que votre écran ne scintille. Les géants de l'internet comme Google ou Yahoo ont réussi à passer de IPv4 à IPv6 sans que cela ne se voit en apparence. Certains sites avaient devancé l'IPv6 Day et étaient déjà accessibles en IPv6 depuis plusieurs semaines.
Quel intérêt ? Avec l'ancienne version, on saturait au niveau des adresses Web. Les sociétés et les utilisateurs vont aussi devoir passer à ce nouveau système, mais cela sera étalé sur des années. On est encore en « période test ». On savait qu'en septembre prochain a priori, on ne disposerait plus de nouvelles adresses web avec l'ancien système. Toutes les machines ont un protocole internet (adresse IP). La limite était de 4 milliards. Le système datait des années 70 et personne à l'époque ne pensait qu'on allait dépasser le milliard...
Tout ne se passera pas forcément en douceur pour tout le monde. On estime que 0,05 % des systèmes pourraient tomber en panne en retombant sur IPv4 si la connexion en IPv6 ne fonctionne pas. Du pain béni pour les informaticiens...

Source : Sur-la-Toile

mardi 7 juin 2011

8 juin 2011, le jour où la planète Internet bascule en IPv6… pour 24 h

L’IPv6 Day, c’est mercredi. Pendant 24 heures, une bonne partie de l’internet mondial deviendra un banc de test géant pour le protocole chargé de rendre la suite de l’actuel IPv4, à bout de souffle et surtout d’adresses. Que va-t-il se passer ? Pour l’utilisateur, pas grand-chose, sans doute, comme nous l’explique Nicolas Scheffer, de Cisco. Mais peut-être quelques petits bugs quand même…

Lire l'article sur Futura-Sciences

mercredi 25 mai 2011

Filtrage internet du contenu sexuel grâce au bruit

L'oreille humaine repère vite le son d'une vidéo pornographique. Il n'y a pas de raison qu'un logiciel n'en soit pas non plus capable. Il existe déjà des systèmes d'analyse d'image pour repérer ces vidéos et images licencieuses avant qu'elles n'atteignent l'affichage sur l'écran. Ces logiciels ont toutefois des défauts ; ils ont du mal à distinguer une image de nudité (érotique ou pornographique) d'une personne en maillot de bain ou encore d'un visage pris de près.
Repérer les gémissements de l'acte sexuel permettrait une meilleure nuance. Des chercheurs coréens ont réalisé cette idée. Ils ont remarqué que les signaux normaux sont normalement d'un ton assez bas et que les clips musicaux ont divers niveaux de hauteurs. Les sons pornographiques sont plutôt aigus et répétitifs...
Le logiciel a été capable pour l'instant de repérer 93 % des contenus pornographiques de test. Certaines fois, le logiciel est perturbé par la musique de fond ou des rires aigus dans des spectacles sont mal interprétés. L'idéal est donc d'avoir un logiciel qui combine analyse de l'image et du son en même temps. Pas de souci : vous pourrez regarder « Quand Harry rencontre Sally » sans censure !

Sources : Sur-la-Toile, New Scientist

vendredi 1 avril 2011

Twitter a 5 ans

Twitter fête cette semaine son cinquième anniversaire. Le service de micro-blogging enregistre en moyenne 500.000 nouveaux inscrits par jour. Mais si les utilisateurs répondent présent, la question de la rentabilité reste néanmoins posée.
Twitter vient de souffler ses cinq bougies d'anniversaire. Lancé le 21 mars 2006, ce service de micro-blogging a vu son nombre d'utilisateurs exploser ces trois dernières années. Pour fêter l'événement, une page intitulée discover.twitter.com, où des célébrités font l'éloge du réseau social, a été ouverte.
"Les gens qui utilisent Twitter en ont fait ce qu'il est aujourd'hui, et pour notre cinquième anniversaire c'est les gens qui rendent Twitter spécial que nous fêtons", a déclaré Biz Stone, l'un des fondateurs de Twitter.

Quelques chiffres

Des tonnes de tweets parcourent désormais la toile chaque jour. De l'ordre d'un milliard de messages par semaine, les données collectées depuis la création du site approcheraient aujourd'hui les 20,9 To.
En cinq ans, Twitter s'est imposé comme étant l'outil de communication où témoignent en temps réel les individus du monde entier, et ce parfois bien plus rapidement que les médias. Pour un chiffre d'affaires de l'ordre de 45 millions de dollars, le site affiche une valorisation - fictive... - de l'ordre de 7 milliards de dollars (contre 3,7 milliards en 2010).

Source : ZDNet.fr

samedi 26 février 2011

Ferme à contenu

Une ferme à contenu est un site qui publie un (très) grand nombre d'articles, sur des sujets précis ayant été préalablement identifiés comme des sujets recherchés par les internautes et donc susceptibles de générer du trafic (et donc des revenus).

Pour aller au bout des choses et pousser l'optimisation aussi loin que possible, les éditeurs de ces sites doivent bâtir une système constitué de plusieurs "briques" :

  • un algorithme qui détecte les demandes des internautes et produit en sortie une multitude de sujets d'articles à écrire. C'est en quelque sorte le royaume de Google Trends ou Insights for Search !
  • une plateforme permettant de trouver un rédacteur pour chaque article, le plus rapidement et le moins cher possible. Les contraintes imposées sont malheureusement susceptibles de contribuer à la création d'articles de faible qualité...
  • un CMS permettant de publier les articles de manière ultra optimisée pour le référencement, tout en monétisant le site en général par la publicité
  • des outils de web analytics pour mesurer les performances des articles publiés
Il ne faut pas confondre "fermes à contenu" et "agrégateurs de contenus" (qui republient des articles ou extraits déjà publiés ailleurs) ou sites communautaires et/ou à contenu généré par les utilisateurs (UGC). Wikipédia ou les forums ne sont donc pas des fermes à contenu.

En février 2011, Google a modifié son algorithme pour tenter de repérer les fermes à contenu afin de réduire leur visibilité dans les résultats.

Source : Dico du Net

mardi 1 février 2011

La pénurie d’adresses IP arrive...

Moins de cent millions : c’est le nombre d’adresses disponibles qui resteraient aujourd’hui pour Internet. Avec 4,3 milliards d’adresses IP différentes déjà accordées, le système de numérotation IPv4 est au bord de la saturation. Comme les numéros de téléphone ou de plaques d’immatriculation, il faut ajouter des chiffres, et donc passer à IPv6. Voilà vingt ans qu’on le sait…

Il y a actuellement plus de deux milliards d’internautes sur la planète mais les adresses IP (Internet Protocol), c’est-à-dire les numéros identifiant chaque accès, sont aujourd’hui 4,3 milliards. C’est le nombre de numéros différents qui ont déjà été accordés par l’IANA (Internet Assigned Numbers Authority), un organisme faisant partie de l’Icann (Internet Corporation for Names and Numbers), gestionnaire de l’Internet mondial. Elle ne les distribue pas au détail mais par blocs de 16.777.216 (soit 224 pour les amateurs d’arithmétique). Attribués aux grandes zones géographiques de la Toile mondiale, ces numéros sont ensuite répartis entre les fournisseurs d’accès à Internet (ou FAI). Il y a davantage d’adresses distribuées que d’internautes à cause des réseaux locaux, où les ordinateurs sont repérés par leurs propres numéros IP.
Comme le système de numérotation du téléphone ou des plaques d’immatriculation, celui d’Internet a une limite. Le protocole actuel, appelé IPv4 (version 4, donc), prévoit des adresses à quatre octets, soit quatre nombres de 0 à 255, soit 32 bits en tout. Le nombre de combinaisons est donc de 232, soit 4,3 milliards… La saturation tant annoncée est bel et bien là. Une entreprise, Hurricane Electric (qui, justement, fournit les solutions pour passer d’IPv4 à IPv6 et pour qui cette saturation représente un juteux marché, comme on va le voir) réalise depuis quelque temps un décompte censément en temps réel des adresses IP libres. Un coup d’œil sur le compteur montre que l’on serait aujourd’hui sous les dix millions, ce qui ne représente que quelques mois voire quelques semaines, voire quelques jours disent certains. La fin du monde virtuel n’est pas pour 2012 mais pour 2011 !

L’IPocalypse n’est pas pour demain

Il est assez étonnant que l’on en soit arrivé à une telle extrémité car la nécessité d’aller au-delà de la numérotation d’IPv4 est un impératif identifié depuis les années 1990 et la solution a été trouvée à cette époque. Une nouvelle version du protocole IP, IPv6 (la v5 concernait un autre développement), définie comme la précédente par l’IETF (Internet Engineering Task Force) a été mise au point.
La numérotation passe de 4 à 16 octets, soit à 2128, soit plus de 3 x 1038, donc des centaines de milliards de milliards de milliards de milliards. De quoi avoir de la marge et même connecter nos voitures, lave-vaisselle, appareils photo, machines à laver, téléviseurs, chaudières, téléphones, tablettes tactiles, cadres photo connectés, etc. « J'imagine que si on trouvait une façon d'attacher une adresse IP à chaque atome on pourrait commencer à avoir des problèmes » a plaisanté Rod Beckstrom, président de l’Icann, dans des propos rapportés par l’AFP.
Mais voilà : à part ce grand bol d’air, IPv6 n’apporte pas grand-chose de mieux qu’IPv4 alors que le passage de l’un à l’autre exige de nombreuses modifications de matériels au sein du réseau mondial, des routeurs en particulier. L’investissement a été retardé, on peut le dire, jusqu’au dernier moment. En ces temps de peurs millénaristes et d’annonces de catastrophes économiques ou écologiques, il arrive même que cette échéance ne soit pas prise au sérieux.
Certains s’inquiètent vraiment. « Le grand réservoir qui distribue les adresses va être à sec dans les semaines qui viennent », expliquait la semaine dernière à l’AFP Lorenzo Colitti, ingénieur chez Google. La solution d’urgence est de partager des adresses IP entre plusieurs personnes. En France, on souhaite bon courage aux fins limiers de l’Hadopi… C’est pourtant ce qui va se passer. Dans la plupart des cas, une adresse IP étant accordée temporairement, le système peut fonctionner. Il n’y aura pas d’« IPocalypse », selon l’heureuse expression qui fait florès sur le Web.
En coulisses, on commence à s’activer. Un grand test est prévu le 8 juin 2011 : le World IPv6 Day. Il réunit des grands pourvoyeurs de trafic : Google, Facebook, Yahoo!, Akamai et Limelight Networks (Akamai gère un ensemble de serveurs, où les pages Web sont dupliquées et les requêtes détournées en fonction de l’état du trafic et Limelight Networks gère des réseaux de fibres optiques à l’échelle mondiale). Pendant 24 heures, ces géants passeront en mode IPv6. Un vrai débarquement…

Source : Futura-Sciences

vendredi 28 janvier 2011

2 milliards d'internautes

L’UIT a annoncé que le nombre d’internautes avait atteint deux milliards en début d’année. C’est huit fois plus qu’il y a dix ans et deux fois plus qu’en 2005. La majorité des utilisateurs se trouvent dans les pays en voie de développement (1,2 milliard pour une croissance de 15,6% la dernière année). En outre, on compte 5,8 milliards de téléphones portables dans le monde.

mardi 11 janvier 2011

La planète Facebook


Voici le réseau Facebook en décembre 2010, réalisé par Paul Butler. Pour chaque utilisateur de Facebook, on a tracé un lien entre sa ville de résidence et celle de ses "amis". Plus il y a de liens entre deux villes, plus le tracé est lumineux.

vendredi 7 janvier 2011

Firefox a dépassé Internet Explorer en Europe

D'après StatCounter, le navigateur Open Source de la fondation Mozilla vient d'atteindre les 38,1% de parts de marché sur le continent européen le mois dernier. Pendant ce temps, Internet Explorer est tombé à 37,5% et Google Chrome est arrivé à 14,6% contre 5,1% l'année dernière. Firefox est donc à présent le navigateur le plus populaire en Europe.
Ce dépassement est en réalité le fait de Google Chrome qui a mangé récemment des parts d'Internet Explorer tandis que Firefox a plutôt stagné. C'est probablement l'impact de la décision des autorités de la commission européenne qui a contraint Microsoft à proposer un choix parmi une douzaine de navigateurs sur Windows depuis mars 2010. Ailleurs dans le monde, Internet Explorer reste le premier navigateur.

Sources : Sur-la-Toile, Daily Mail

mardi 4 janvier 2011

Facebook désormais plus visité que Google

Pour la première fois depuis plusieurs années, Google n’est plus en tête des sites les plus visités aux Etats-Unis. Le nouveau roi du Web est désormais le très populaire site de réseau social Facebook, selon une nouvelle étude du cabinet Experian Hitwise.
Avec 8.93% des visites mondiales aux Etats-Unis pour facebook.com entre janvier et novembre 2010 contre 7.19% pour google.com, l’avance est flagrante. Facebook est même en tête de manière ininterrompue depuis mars 2010. Un an plus tôt, la première place était occupée par Google, devant Yahoo!. Si l’on tient compte des différents sites composant la galaxie Google, c'est-à-dire en ajoutant entre autres Youtube et Gmail, Google reste à sa première place avec 9.85% des visites, la seconde place revient à Facebook avec toujours 8.93% des visites et la troisième place à Yahoo! avec 8.12% pour l’ensemble de ses sites.
Selon l'analyste Greg Sterling, les chiffres annoncées par le cabinet Experian Hitwise sont à prendre avec du recul, ils ne tiennent en effet pas compte des visites effectuées via appareils mobiles, et il est possible de consulter les résultats de Google sans passer par sa page d’accueil, en faisant des recherches directement depuis la fonction adéquate de son navigateur par exemple. Quoi qu’il en soit, la progression de Facebook est spectaculaire, avec désormais plus de 500 millions d’utilisateurs actifs.
A noter que les business models de Google et de Facebook ne sont pas comparables, Facebook ayant un chiffre d’affaire égal à seulement un dixième de celui de Google, ce qui correspond tout de même à environ 2 milliards de dollars.

Source : Techno-Science

mercredi 29 décembre 2010

L'email serait sur le déclin

Tout a une fin. Sur le plan technologique, la durée de vie peut être assez courte. Tout le monde a par exemple conscience que les cassettes ou les fax ont pratiquement disparu... Dans le cas d'Internet, l'email serait perdrait actuellement de sa popularité. Les Yahoo et autres Gmail voient de moins en moins d'utilisateurs passer sur leur messagerie.
Ainsi, les hébergeurs d'emails ont perdu 1,2 million d'utilisateurs depuis le pic atteint en octobre 2009. Cela ne concerne toutefois que les comptes personnels. Il se trouve que les plus jeunes internautes semblent privilégier l'instantanéité et l'interactivité : messagerie instantanée et réseaux sociaux ont donc leurs faveurs.
On dirait bien que l'email a surtout le gros défaut de ne pas pouvoir savoir si le destinataire a lu ou non le message. Un autre souci est que certaines personnes changent assez régulièrement leurs adresses email, sans compter le mauvais filtrage du SPAM parfois. L'email ne servirait alors pour certains qu'à recevoir des lettres d'information ... ou des factures. Pour Zuckenberg de Facebook, l'email va être victime, comme le courrier, de sa lenteur et de son aspect formel. Facebook donne l'option à ses utilisateurs de choisir entre différents modes de communication et on dirait que l'email est l'option la moins populaire.

Sources : Sur-la-Toile, Daily Mail

mercredi 8 décembre 2010

Avec Internet, nous sommes devenus de vrais rats de laboratoire

D'après Nicholas Carr qui a été éditeur à la Harvard Business Review, la satisfaction de notre obsession à vouloir regarder très périodiquement nos emails et autres informations, surtout de nature sociale, nous fait vraiment ressembler à des rats de laboratoire. Cette surcharge d'information a un inconvénient majeur : elle empêche les gens de se concentrer et … de Penser (en profondeur, d'où la majuscule).
Ce syndrome a un nom : le trouble déficitaire de l'attention. Pour Carr, notre Internet d'aujourd'hui satisfait un de nos instincts de recherche de nouvelles informations. On devient «addict» à nos «Inbox». De nombreuses personnes qui sont au bureau vérifient leur boîte mail (ou messagerie équivalente) près de 30 fois par heure. On est comme le rat qui presse le levier afin d'avoir sa «récompense sociale».
Pour Carr, cette évolution va avoir un impact (négatif) sur notre cerveau. On constate d'ailleurs de plus en plus d'utilisation de médicaments pour traiter les défauts d'attention, comme le Ritalin. Utiliser des moteurs de recherche afin de chercher des faits décroîtrait notre capacité à apprendre. Serait-il peut-être encore temps d'écrire (sur papier) et de relire un livre avant d'oublier comment le faire ?

Source : Sur-la-Toile

vendredi 26 novembre 2010

Baidu

Baidu est le principal moteur de recherche en Chine. Baidu Map permet de voir les villes chinoises entièrement modélisées en 3D. Voici par exemple Shanghai.

mercredi 24 novembre 2010

Disparition de Facebook dans 5 ans ?

Jeffrey Cole est un spécialiste du Web et le directeur du Digital Future Center de l'université de Caroline du Sud. Celui-ci a annoncé dernièrement que le très célèbre réseau social tomberait dans l'oubli d'ici 5 ans. En effet, c'est lors d'une conférence en Australie que le spécialiste a fait cette annonce quant à l'avenir de Facebook. Une annonce surprenante, mais à laquelle les internautes accordent beaucoup de crédit.
Effectivement, les dernières prédictions de Jeffrey Cole s'étaient alors révélées exactes, notamment avec la chute libre de MySpace ou bien Bebo. L'homme avait ainsi prédit, en 2006, que le premier serait petit à petit abandonné 4 ans plus tard, soit en 2010. Les dirigeants de MySpace ont effectivement confirmé que le nombre d'utilisateurs du site connaissait actuellement une forte baisse.
Par ailleurs, M. Cole, prévoit la même tournure pour la presse papier d'ici 5 ans, évoquant alors la fin des quotidiens américains. Cependant, selon lui, la tablette d'Apple, l'iPad, aurait un bel avenir devant lui, pouvant remplacer les journaux papier. Le spécialiste ajoute alors que l'iPad est sans doute « la meilleure chose qu'il soit arrivé aux journaux en 100 ans ».

Source : Sur-la-Toile