Le cyberblog du coyote

 

Extra

Editorial

Ce blog a pour objectif principal d'augmenter la culture informatique de mes élèves. Il a aussi pour ambition de refléter l'actualité technologique dans ce domaine.

lundi 13 mars 2017

Twitter, paradis des «bots»?

Près de 48 millions de comptes créés sur le réseau social ne seraient ni détenus, ni gérés par des internautes humains.
On les savait présents sur Twitter, mais probablement pas dans une telle proportion. La présence des «bots», c'est-à-dire des comptes crées sur le réseau social mais non associés à une identité et une personne réelle, a explosé ces dernières années sur Twitter et atteint aujourd'hui un niveau alarmant. Cette information a été révélée au public par l'université de Caroline du Sud, aux États-Unis, qui s'est penchée sur le phénomène dans le cadre d'une vaste étude.
Au total, l'étude est arrivée à la conclusion que 9% à 15% des comptes sur Twitter ne sont pas tenus par des personnes réelles. Ainsi, en rapportant cette donnée au nombre total d'utilisateurs de Twitter au quotidien –319 millions d'utilisateurs par mois–, on obtient un nombre avoisinant les 48 millions de comptes non-humains: des «bots».
Alors, c'est grave?

Good «bot» and bad «bot»

«Beaucoup de bots sont extrêmement bénéfiques, comme ceux qui alertent sur l'immence de catastrophes naturelles... ou en ce qui concerne les services après-vente», s'est défendu un porte-parole de Twitter à CNBC. Mais évidemment, tous les «bots» n'ont pas la même ambition. Tous ne sont pas là pour vous faciliter la vie et vous faire gagner du temps.
C'est la raison pour laquelle l'étude alerte sur la personnification avancée de certains comptes qui, en simulant le comportement humain, espèrent vous convaincre d'adhérer à des idées, à des contenus de propagande... Pour illustrer le pouvoir et l'influence des «bots» sur un réseau social comme Twitter, la revue scientifique First Monday avait comptabilisé près de 400'000 comptes, auteurs de 3,8 millions de tweets durant la période la plus intense de la campagne présidentielle américaine –16 septembre, 21 octobre. C'était l'équivalent de 20% de tous les tweets liés à l'élection.

Source : Slate.fr

mercredi 15 février 2017

Un canular sur Wikipédia

La force de l'encyclopédie en ligne est aussi sa principale faiblesse, l'exemple d'une fausse page créée par un journaliste du Monde vient encore le démontrer.

Lire l'article sur Slate.fr

lundi 20 avril 2015

Do not track

Do Not Track explore les différentes manières dont le Web moderne enregistre et traque nos activités, nos publications et nos identités. Pour vous aider à comprendre comment vos informations sont utilisées et collectées… nous vous demandons de participer avec vos données. Oui, vos données. Ça peut sembler paradoxal, mais c’est en vous prêtant au jeu que vous pourrez comprendre l’implication du tracking – non seulement pour vous, mais pour vos amis ou votre famille. Quelle est la valeur cachée derrière chacun de vos clics ? Que se passe-t-il sans que vous vous en rendiez compte et sans votre consentement ? Soyez curieux et reprenez le contrôle.

Toutes les deux semaines, un épisode personnalisé abordera un sujet différent : de nos téléphones portables aux réseaux sociaux, de la publicité personnalisée au big data.
Leur point commun ? Utiliser les méthodes et outils des trackers pour vous traquer pendant que vous les regardez.

Nous voulons expérimenter le tracking pour ainsi mieux le comprendre. Nous vous demanderons de nous donner des informations personnelles sur vos goûts, vos avis, vos habitudes. Plus nous en saurons, plus vos épisodes seront personnalisés. Rien que pour vous.

Entre chaque épisode, lisez, écoutez et fouillez plus en profondeur les thématiques abordées, à travers du contenu supplémentaire. Commentez et échangez sur les sujets abordés. Pour rester informé et vivre l’expérience complète, laissez-nous votre mail !

Aller sur le site arte.tv/donottrack

vendredi 5 septembre 2014

Swisscows: le moteur de réponse le plus sécurisé, désormais avec recherche d'images !

8 semaines après son démarrage couronné de succès, Swisscows lance son moteur de réponse pour les images. La recherche d'image propose une vue d'ensemble et une démarche intuitive; l'utilisateur s'y retrouve simplement et rapidement. Swisscows a développé des fonctions qui n'existent dans aucun autre moteur de recherche. Pour rendre la recherche plus efficace, l'utilisateur a la possibilité d'affiner ses résultats dans la partie supérieure et de recherche selon des critères spécifiques comme la mise en page, la taille, les couleurs et le type. Les images sont affichées en miniatures, ou Thumbnails, sur la page. En passant sur l'image avec la souris, celle-ci affiche 3 fonctions pour l'utilisateur : A côté du lien direct, il existe une fonction de vision préalable ainsi que la possibilité de sauvegarder l'image dans les favoris. Les images sélectionnées apparaissent tout en bas de la page. Ce qui permet d'éviter l'ouverture de plusieurs fenêtres.
Une autre nouveauté de Swisscows est le critère de recherche par région. Il permet de limiter les résultats de la recherche à un pays particulier ou à une région particulière.
Swisscows a retravaillé le design de son site et optimisé la version mobile. L'utilisateur dispose maintenant de toutes les fonctions sur tous les appareils. Grâce à l'accès par le cloud, la recherche est simplifiée pour les utilisateurs de téléphones mobiles.
Les nouveautés mentionnées seront d'abord lancées pour les versions desktop et mobile. Elles sont encore en préparation pour les App Android et iOS.
Le moteur de réponse Swisscows, développé par la société suisse de logiciels Hulbee SA, a attiré, dès les huit premières semaines, quelque 3 millions de requêtes en Suisse, dépassant ainsi les attentes. Swisscows compte 400 000 utilisateurs uniques et 1,6 million d'impressions de pages par mois. Swisscows connaÎt un développement rapide d'un point de vue technique. Presque toutes les semaines, il y a des mises à jours et des extensions de fonctions. Pour les annonceurs, l'offre publicitaire Swisscows Annonce, basée sur du texte, dispose de nouvelles optimisations.
Les spécialistes en intelligence artificielle de la société de logiciels Hulbee SA, implantés en Suisse, ont développé une solution alternative par rapport aux moteurs de recherche établis. A la différence des moteurs de recherche habituels, Swisscows n'enregistre pas de données relatives aux utilisateurs. Situés en Suisse, les serveurs garantissent la sécurité des données. Dans la mesure où Swisscows est basé sur la reconnaissance sémantique des informations et offre une aide intuitive lors de la recherche, l'utilisateur obtient rapidement des réponses à ses requêtes. Swisscows filtre les données de manière à assurer la protection de l'enfance et de la jeunesse. De plus, grâce aux vignettes cloud, l'accès à Swisscows est très facile pour les élèves et les utilisateurs de mobiles.

Source : Romandie.com

jeudi 4 septembre 2014

L’algorithme Edge Rank ou le filtrage selon Facebook

Si vous êtes adepte du réseau social Facebook, vous aurez sans doute remarqué que toutes les activités concernant vos « amis » n'apparaissent pas dans votre fil d'actualité. Mais comment Facebook fait-il le tri dans cette masse d'informations ? Pourquoi afficher telle actualité plutôt que telle autre ?


Source : Interstices

lundi 6 janvier 2014

Tout savoir sur les cookies

Tout savoir sur les cookies ! from CNIL on Vimeo.

dimanche 29 décembre 2013

C'est quoi le big data ?

mercredi 18 décembre 2013

Les bots représentent 61,5 % du trafic web

Si vous lisez ce billet, il est plus probable que vous soyez un programme qu'un humain. Les humains ne représenteraient que 38,5 % du trafic web en réalité. Il s'agit du résultat d'une étude d'Incapsula (société spécialisée en sécurité). Les bots ont vu leur nombre progresser de 51 % l'année passée. Bien entendu, certains de ces programmes ne sont pas bienveillants : ils cherchent une faille pour voler des données et réaliser des opérations de spams/scams dans les commentaires.
Il n'empêche ! La majorité des bots sont « bienveillants ». Ils sont des outils des moteurs de recherche souvent, pour indexer le contenu ou réaliser des archives avant effacement, ainsi que des réseaux sociaux qui vont chercher des données lorsqu'un lien est partagé ou « aimé ». Les chiffres donnés ne sont pas absolus (ils représentent les clients de la firme), mais donnent la tendance avec justesse.
Les bots malveillants seraient en recul, notamment grâce au travail de sociétés comme Google. Il existe aussi des bots « faits maison » pour réaliser des attaques de surcharge serveur.
Évidemment, cet accroissement de visites de bots peut avoir un impact sur les serveurs, mais il faut relativiser celui-ci, d'autant que la puissance des serveurs augmente également.

Source : Sur-la-Toile

dimanche 30 décembre 2012

Le Knowledge Graph de Google est disponible en Français

Lancé en mai dernier, le Knowledge Graph de Google est une gigantesque base de données de 500 millions d’objets dont le moteur de recherche se sert pour associer les mots clés avec des éléments réels, afin de livrer des réponses plus pertinentes. D’abord disponible uniquement en anglais, ce service est désormais activé en français.

Puissant par sa taille (30.000 milliards d’URL uniques indexées), Google veut aussi l’être en se montrant toujours plus pertinent. Être capable de livrer des informations essentielles concernant un lieu, un monument, une ville, une personne célèbre, une œuvre, sans que l’internaute ait à cliquer sur des dizaines de liens dans les résultats de recherche, voilà ce que Google a cherché à faire avec son Knowledge Graph, à l'instar des fonctionnalités de Wolfram Alpha. Sous cette appellation se cache une nouvelle technologie de recherche, introduite en mai dernier aux États-Unis, et désormais disponible en français.
Le Knowledge Graph se matérialise par un nouveau panneau qui apparaît sur le côté droit d’une page de résultats lorsque la requête correspond à une « entité » avec laquelle le moteur de recherche a établi un lien. Tapez par exemple le nom du président de la République François Hollande et vous obtiendrez une fiche de synthèse indiquant ses date et lieu de naissance, sa taille, le nom de ses enfants, celui de sa conjointe, le tout accompagné d’une série de photos.

Plus de 500 millions d’objets pour le Knowledge Graph

« Le Knowledge Graph, c’est la définition d’entités et non plus de chaînes de caractères », a expliqué à Futura-Sciences un représentant de Google France. Ces « entités » sont en fait une gigantesque base de données de 500 millions d’objets (monuments, personnalités, villes, formations sportives, films, etc.) entre lesquels le Knowledge Graph a tissé plus de 3,5 milliards de faits et de relations. Ainsi, lorsque l’on tape « Tour Eiffel » dans Google, le moteur ne reconnaît pas simplement deux mots, mais une entité à laquelle il associe des attributs comme sa taille, sa date de construction, le lieu où elle se trouve, le nom de son concepteur…
Le Knowledge Graph peut aussi saisir qu’une requête peut recouvrir plusieurs réalités. « Taj Mahal » peut faire référence au célèbre mausolée indien ou bien au musicien de blues éponyme. Dans ce cas, il propose à l’internaute des résultats prenant en compte ces nuances pour lui permettent d’ajuster sa recherche en un clic. « Vos résultats sont plus pertinents, parce que nous comprenons ce que sont ces entités, avec les nuances de signification que cela implique, de la même façon que vous », explique dans un billet de blog Amit Singhal, vice-président chez Google.

L'internaute peut contribuer au Knowledge Graph

Adapter le Knowledge Graph à la langue de Molière a nécessité un « important travail d’ingénierie », nous a-t-on expliqué, afin d’associer la chaîne de caractères en français aux bonnes entités. De plus, les internautes peuvent contribuer à améliorer le système en signalant une erreur éventuelle dans une fiche de synthèse. Pour cela, il suffit de cliquer sur le lien « Signaler un problème » au bas du panneau.
Aussi puissant soit-il, le Knowledge Graph « n’est qu’un début », nous a assuré le représentant de Google France. « Cinq cents millions d’entités, c’est encore peu. Nous allons augmenter ce nombre et établir encore plus de relations entre les entités. » Mais jusqu’où veut aller Google ? La réponse d’Amit Singhal ne laisse aucun doute sur les ambitions du géant américain. « Nous sommes fiers, au travers du Knowledge Graph, de faire notre premier (tout petit) pas vers une recherche plus intelligente et plus proche de [quelque chose comme] l’ordinateur de Star Trek que j’ai toujours rêvé de construire. » Il reste encore beaucoup de chemin à parcourir pour que la réalité rejoigne la fiction…

Source : Futura-Sciences

samedi 3 novembre 2012

Explorer un Data Center de Google

jeudi 16 août 2012

Le Knowledge Graph de Google veut répondre aux questions

Au lieu de renvoyer une liste de sites Web, Knowledge Graph répond à la question posée par l'internaute. Déjà disponible aux États-Unis, ce nouvel outil est actuellement en cours de déploiement dans le monde entier mais seulement en langue anglaise.
Après l'avoir déployé sur la version américaine de son moteur de recherche, Google vient d'activer son Knowledge Graph pour l'ensemble de ses utilisateurs. Ce nouvel outil, explique Google, est la « première étape essentielle vers la construction d'une prochaine génération de recherches, qui puise dans l'intelligence collective du Web et appréhende le monde un peu plus comme les gens le font ».
Ce Knowledge Graph vise à mieux répondre aux requêtes de l'internaute et reprend les idées de Wolfram Alpha ou de Trapit. Plutôt que de retourner une liste de sites Web où se trouve l'information, cet outil y répond directement. Dans la vidéo de présentation, on peut voir un exemple avec la liste des musées et leurs horaires directement affichée dans le moteur de recherche.

Knowledge Graph s'appuie sur une énorme base de données

Selon Google, le Knowledge Graph permet à l'internaute d'obtenir plusieurs informations en lien avec sa requête. Dans le cadre d'une recherche sur Burj Khalifa, par exemple, Google retourne plusieurs données sur le gratte-ciel (hauteur, nombre d'étages, début des travaux, date d'ouverte, adresse, architectes, etc.) et de multiples photographies du bâtiment.
Le déploiement, à l'échelle mondiale, vient juste de débuter et Knowledge Graph sera accessible via le moteur de recherche. Google explique que les résultats puisent dans une gigantesque base de données et que les réponses dépendront de la localisation géographique de l'internaute.

Source : Futura-Sciences

dimanche 12 août 2012

Google modifie son algorithme pour contrer les sites pirates

Ce changement devrait aider les internautes à trouver plus facilement des sources de contenus légitimes et de qualité, assure Google.
Le groupe internet Google a annoncé vendredi une nouvelle modification de l'algorithme de son moteur de recherche, destinée à donner une plus grande priorité aux publications légales par rapport aux sites ayant fait l'objet de plaintes pour piratage. "A partir de la semaine prochaine nous commencerons à prendre en compte un nouveau signal dans nos affichages: le nombre de demandes de retrait pour violation de droit d'auteur", a expliqué le vice-président de l'ingéniérie Amit Singhal sur le blog du groupe.
"Ce changement devrait aider les internautes à trouver plus facilement des sources de contenus légitimes et de qualité - qu'il s'agisse d'une chanson diffusée sur (la radio publique) NPR, d'une émission de télévision sur (le site de diffusion en streaming) Hulu, ou de musique sur Spotify". "Les sites faisant l'objet de nombreuses demandes de retrait pourraient apparaître plus bas dans nos pages de résultats", a indiqué M. Singhal.

Des millions de demandes chaque jour

Les sites en question seront toutefois prévenus par Google afin de répondre aux accusations de piratage. Depuis que Google a remanié son système de repérage des droits d'auteur il y a deux ans, il est en mesure de recueillir beaucoup plus d'informations sur les programmes piratés qui apparaissent en ligne, selon M. Singhal.
Google affirme recevoir plus de demandes de retrait de contenu quotidiennes - 4,3 millions ces derniers 30 jours - qu'il n'en a reçues durant toute l'année 2009. Le vice-président de l'association des studios hollywoodiens (Motion Picture Association of America), Michael O'Leary, a exprimé l'espoir que ce changement éloigne les internautes des sites illégaux. "Nous étudierons de près ce changement", a-t-il dit, notant que "le diable se cache toujours dans les détails", a dit M. O'Leary.

Source : lci.tf1.fr

mardi 29 mai 2012

La recherche passe à l’ère sémantique

Intéressant article de Fred Cavazza sur l'évolution des moteurs de recherche.

lundi 7 mai 2012

Un visiteur sur deux vient d'un moteur de recherche

Le site Médiamétrie a publié cette semaine un rapport d'étude sur la provenance des visiteurs d'un site. Réalisé en avril dernier, le rapport a passé au crible les données de plusieurs sites afin de déterminer via quel moyen les internautes étaient arrivés sur les pages. Ainsi la plus grande partie des visites, un utilisateur sur deux, provient d'un moteur de recherche.
Dans le trafic restant, seulement 38% des internautes accèdent au site directement avec l'adresse URL, soit en la saisissant dans la barre, soit grâce à un favori. Presque 12% proviennent de liens externes, comme par exemple depuis un annuaire, ou encore depuis un autre site internet. Enfin, 0.3% des visiteurs viennent d'autres sources.
Du côté des moteurs de recherche, Google reste loin devant les autres. Avec plus de 9 visiteurs sur 10, les sites restant sont obligés de se partager seulement 10 petits pour cent. On retrouve donc ensuite, et dans l'ordre, Bing, Yahoo!, Search-Results, Babylon Search, ....

Source : Sur-La-Toile

jeudi 16 février 2012

Les internautes chinois priés de communiquer leurs noms

Le gouvernement chinois a adressé la semaine dernière aux internautes du pays un rappel vis à vis de la loi. À compter du 16 mars prochain, toute personne souhaitant poster un message sur une plateforme de microblogging devra être identifiée par son vrai nom et donc abandonner son pseudonyme ainsi que son anonymat.
Depuis le début de l'année déjà, ces services ont l'obligation de récupérer l'identité des internautes lorsque ces derniers s'inscrivent. Ce rappel vise donc les personnes disposant déjà d'un compte, mais n'ayant pas encore communiqué leur véritable identité. Le gouvernement justifie cette mesure en expliquant vouloir contrôler la circulation des données sur internet afin d'éviter la diffusion d'informations erronées.

Source : Sur-la-Toile

dimanche 8 janvier 2012

Google peaufine son algorithme de recherche

En novembre 2011, les ingénieurs de Google utilisaient leur cerveau pour faire évoluer l'algorithme de recherche de Google, s'en suivent ainsi de meilleurs résultats liés à l'actualité ou à des événements récurrents. Ces résultats seront d'avantage informatifs pour l'internaute en favorisant les sites plus fréquemment mis à jour. Google a continué ses efforts le mois suivant et annonce une trentaine de changements.
Ainsi, pour Google images, outre les résultats les plus pertinents, les images de meilleure qualité seront placées en tête de liste. La fonctionnalité sitelinks, permettant de présenter les liens de navigation internes à un site web, est également optimisée. Google modifie ces derniers afin qu'ils soient davantage attrayants pour l'internaute. Il est question de prendre aussi en compte la position géographique de l'utilisateur pour proposer un lien vers les actualités locales sur un site généraliste. Toutes les modifications sont disponibles depuis le blog officiel de Google.

Source : Sur-la-Toile

lundi 19 décembre 2011

Google fait tomber la neige

Les Easter Eggs («oeufs de Pâques») du géant Internet, cachés ça et là sur la Toile, sont célèbres. Le dernier en date fait tomber la neige sur votre écran quand vous tapez «Let It Snow».
Vous n'avez pas vu assez de neige ce week-end? Alors tapez «Let It Snow» sur la barre de recherche de Google et regardez les flocons tomber sur les résultats traditionnels qui vont apparaître, soit des vidéos de classiques de Noël interprétés par Dean Martin, Frank Sinatra et tous les autres.
Au bout d'un moment, votre écran va devenir presque opaque à cause du givre sur l’écran. Vous serez alors invité à dégeler l’écran (bouton «defrost» ) comme vous le feriez pour votre pare-brise de voiture. Vous pouvez aussi agiter la souris pour dégager des bribes d'écran...
Ce gadget pour les fêtes est le dernier Easter Egg («oeuf de Pâques») de Google, qui n'en est pas à son coup d'essai. Ainsi en novembre, il y avait eu le célèbre «do a barrel roll» (tapez-le dans Google et vous comprendrez).
D’autres Easter Eggs plus ou moins ludiques se manifestent aussi via certaines recherches sur google.com. Ainsi, si vous tapez «ascii art», le logo Google va se transformer en logo ASCII. Et si vous inscrivez «tilt» dans la barre de recherche, vous pourrez alors faire tilter votre écran façon flipper. Essayez, c'est marrant!

Source : 24 Heures

samedi 3 décembre 2011

Quelques infographies sur les sites internet

Il n'est pas rare de tomber sur des nuées de nombres en rapport avec un site ou un autre sur internet. Facebook par exemple possède plus de 500 millions de comptes actifs, ou encore chaque jour ce sont 3 milliards de vidéos qui sont vues dans le monde entier depuis Youtube. Le site JeffBullas.com vient donc proposer une série de dix infographies afin d'y voir un peu plus clair dans toutes ces données. On y retrouve Facebook, Twitter, Google+, Youtube, LinkedIn, StumbleUpon, Tumblr, mais aussi des infographies concernant le marketing et les SEO.

Quelques chiffres sont intéressants à noter :

  • Chaque minute, 35 heures de vidéos sont envoyées sur Youtube.
  • 48% des 18-34 ans vont sur Facebook à leur réveil.
  • 57% des personnes parlent plus facilement sur internet que dans la "vraie vie".
  • Seulement 28% des utilisateurs de Google+ sont de sexe féminin.
  • 44% des emails ne sont jamais ouverts.

Source : Sur-la-Toile

dimanche 27 novembre 2011

Quand IBM prédit la fin des talons hauts grâce à Facebook

Les médias sociaux et leur masse immense de données hétérogènes sont une véritable mine d’information que les entreprises, les marques, mais aussi les politiques et les pouvoirs publics tentent de maîtriser à l’aide des outils analytiques. IBM, l’un des leaders dans ce domaine, nous a dévoilé les grands principes et le potentiel de ces technologies.

Lire l'article sur Futura-Sciences

lundi 21 novembre 2011

Un mathématicien italien défie Google

Massimo Marchiori, un mathématicien italien qui a contribué au développement de l'algorithme de recherche de Google, se prépare à lancer son propre moteur de recherche avant la fin de l'année.
Professeur agrégé à l'Université de Padoue, le mathématicien, Massimo Marchiori a récemment commencé à parler de son projet de moteur de recherche, postant des vidéos sur son site de promotion volunia.com. Dans l'une d'elle, où on le voit assis sur un banc public et écrivant sur un tableau blanc, il explique : « Ce moteur ne sera pas un Google bis, plus évolué. Il apporte une perspective radicalement différente, une autre vision de ce qu'un moteur de recherche pourrait être... » Le site permet aux visiteurs de s'inscrire pour devenir un « power user » privilégié et faire partie du panel de testeurs de la version bêta du moteur, prévu pour être lancé en 12 langues.

Jeudi dernier, dans une interview publiée dans l'édition en ligne du Corriere della Sera, Massimo Marchiori a refusé de rentrer dans les détails et dire ce qui distingue Volunia de ses concurrents. « Vraiment désolé, mais je ne peux vous en dire plus pour l'instant... Le fait est qu'une entreprise comme Google, pour donner un exemple, n'aurait aucune difficulté à faire plancher 100 ingénieurs jour et nuit sur notre idée et à nous coiffer sur le poteau, » a déclaré le mathématicien. « Si je ne croyais pas à la grande valeur du projet, si je ne pensais pas qu'il peut rivaliser avec les géants de la recherche en ligne, je ne me serais jamais impliqué, » a-t-il ajouté. Massimo Marchiori a juste indiqué que l'idée de base était simple mais très différente de l'approche actuelle des principaux moteurs de recherche. « Google utilise un club de golf. Nous, nous allons travailler avec un fleuret. La différence de notre moteur de recherche, ce sont les résultats qu'il va nous permettre de faire émerger. Parce que Volunia sera vraiment utile aux gens. »

Des soutiens financiers et technologiques

Massimo Marchiori est membre du conseil d'administration du World Wide Web Consortium (W3C) de Tim Berners Lee et a travaillé sur la Platform for Privacy Preferences (P3P) et sur le Web Ontology Language (OWL). Son algorithme Hyper Search avait été présenté en Californie en 1996 lors d'une conférence à laquelle assistait un jeune homme de 23 ans, Larry Page. L'algorithme a ensuite servi à mettre au point le système de classement des pages de Google. Les locaux du projet seront situés à Padoue, dans le nord-est de l'Italie. Y participent beaucoup de développeurs de logiciels et anciens étudiants de Massimo Marchiori. Le projet est financé par Mariano Pireddu, un entrepreneur sarde, qui prospère depuis 20 ans dans le secteur informatique et les télécommunications. « Les partenaires sont moi-même et Massimo, et tous les chercheurs qui ont collaboré au projet, » a déclaré l'entrepreneur dans un entretien téléphonique. « Nous ne rêvons pas de créer un meilleur moteur de recherche que Google. Mais nous croyons que nous pouvons créer un moteur différent de Google. » Mariano Pireddu est propriétaire de Malloru, un cabinet de consulting pour les entreprises basé dans la ville d'Oristano, à l'ouest de la Sardaigne. Il était autrefois président de l'entreprise de télécommunications slovène Voljatel et avait des intérêts chez Mindware Studios, un éditeur de logiciels basé à Prague.

Les serveurs de Volunia seront installés en Sardaigne et fournis par Tiscali, « mais Renato Soru, le fondateur de Tiscali, ne fait pas parti des investisseurs, » a précisé Mariano Pireddu. « Nous avons suffisamment de fonds pour financer les premières étapes du projet. Il est encore prématuré de parler de l'entrée possible de nouveaux actionnaires, » a-t-il ajouté. « Le marché va nous dire de façon démocratique si notre idée était bonne. Si les utilisateurs aiment notre moteur, c'est que nous aurons fait du bon travail. Sinon, nous améliorerons le produit, » a encore déclaré l'entrepreneur.

Dans son interview avec le Corriere della Sera, Massino Marchiori a déclaré que les fondateurs de Google, Larry Page et Sergey Brin, ont toujours reconnu sa contribution à la formule mathématique du moteur de recherche et qu'il n'avait aucun regret de ne pas avoir participé à leur étonnante aventure. « L'idée d'une vendetta ne m'est jamais venue à l'esprit, » a-t-il déclaré au journal italien. « La vérité, c'est que notre projet est une belle idée, et que ce serait dommage de ne pas la réaliser. Et il semble aujourd'hui que ce soit le bon moment pour le faire. »

Article de Jean Elyan avec IDG NS

Source : LeMondeInformatique.fr