OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 L’ère des “curators” aurait-elle sonné? http://owni.fr/2010/11/26/l%e2%80%99ere-des-%e2%80%9ccurators%e2%80%9d-aurait-elle-sonne/ http://owni.fr/2010/11/26/l%e2%80%99ere-des-%e2%80%9ccurators%e2%80%9d-aurait-elle-sonne/#comments Fri, 26 Nov 2010 16:45:28 +0000 Guillaume Decugis http://owni.fr/?p=37058 Il y a eu les Webmasters. Il y a eu les Blogueurs. Il serait donc venu le temps des Curators !

Si vous ignorez le sens du mot “curation”, préparez-vous à l’entendre. Depuis quelques mois, de nombreux observateurs américains des médias sociaux en prédisent l’avènement et en font même une “opportunité à 1 milliard de dollars”.

Alors, de quoi s’agit-il ? Une des définitions que j’aime bien est celle de Rohit Bhargava :

Un “Content Curator” est quelqu’un qui continuellement trouve, regroupe, organise et partage le contenu en ligne le meilleur et le plus pertinent sur un sujet spécifique.

Le problème que résout ce curator est donc le suivant : dans le web social, comment distinguer le bruit du signal, l’information importante de la banalité ? Comment l’organiser et l’éditorialiser ? Bref, comment donner du sens au web social à l’heure de Twitter et de ses 3,283 tweets par seconde ?

Une rédaction en chef participative

Le web 2.0 a depuis longtemps ses journalistes ; il avait besoin de rédacteurs en chef : ce serait donc eux.

Mais comment construire un modèle participatif sur ce sujet ? Dans une salle de rédaction, tout est clair : dans rédacteur en chef, il y a chef. Sous-entendu, un seul. Mais sur le web, tout le monde a sa voix au chapitre.

On a d’abord cru que Twitter permettait cette curation. Tweeter un lien, c’est l’avoir trouvé et lui donner une valeur qu’il n’avait pas auparavant. Le problème c’est que quand tout le monde se met à faire ça, on peut facilement s’y perdre…

La deuxième vague de la “curation” – à ce stade vous comprendrez que je renonce à traduire le mot en français – est arrivée via les algorithmes. TweetMeme classe les articles (que son bouton permet de tweeter en un clic) en fonction de leur popularité sur Twitter. Ce type de solution (comme Wikio en France, qui a d’ailleurs intégré Twitter comme métrique récemment) amène donc une hiérarchisation.

Les limites des algorithmes

Certains – et j’en fais partie – pensent que ça ne suffit pas. Il y a sur le sujet un excellent article de Tom Forenski sur le “Human Web” que je vais essayer de résumer :

- les algorithmes sont constamment manipulés là où les humains ne le sont pas : le SEO n’est que ça après tout et la débâcle chronique de Digg sur le sujet nous le rappelle.

- le besoin de thématisation : la popularité c’est bien, mais si je m’intéresse à des sujets de niche, ça ne marche plus.

- le besoin d’éditorialisation : c’est-à-dire le fait de donner du contexte sans être un simple perroquet. Une démonstration brillante est celle qu’Éric Dupin nous donne quotidiennement à travers lefocus.com (inspiré du célèbre Drudge Report – un phénomène du web américain). En renommant la une du Nouvel Obs sur la déclaration du pape sur les Roms en “Cohérent ? Quand le Pape tacle le gouvernement français, la gauche anticléricale devient pieuse“, on comprend le nouvel éclairage qui est alors donné et qu’aucun algorithme n’aurait pu faire.

Les chiffres de TweetMeme semblent eux aussi montrer la limite du “tout algo” (NB : je parle du plateau sur 2010, la baisse depuis l’été est principalement due au fait que Twitter ait lancé son propre bouton).

Depuis quelques mois, certains, Robert Scoble en tête, demandent et prédisent l’avènement de nouvelles plateformes de curation qui ne seraient pas fondées sur des algorithmes mais qui permettraient aux curators de faire le travail. Il semble qu’ils aient été entendus par plusieurs start-ups dont voici une liste qui ne se prétend pas exhaustive : PearltreesCurated.byStorify et donc désormais Scoop.it.

L’humain au cœur de la sélection

Je ne vais pas me lancer dans une comparaison de toutes ces plateformes. Mais si elles ont leurs différences (Pearltrees a une interface de visualisation très innovante, Curated.by et Storify sont très axés sur les événements temps réel et Scoop.it alimente le curator de suggestions pour construire son média thématique), elles font toutes ce pari de l’humain. Cette idée presque philosophique que dans les subtilités du contenu et de la sémantique, l’homme a encore une longueur d’avance sur la machine.

Qu’y trouvent ces curators ? Entre un moyen d’expression simple et peu chronophage, l’envie d’être reconnu par une communauté thématique (“Andy Warhol avait tort: on ne sera pas tous célèbre pour 15 minutes ; on sera tous célèbre pour 15 personnes“) ou bien tout simplement l’envie citoyenne de participer au grand rangement du web, difficile à dire. Sans doute un mélange de tout cela. Mais, très pragmatiquement, beaucoup font déjà ça naturellement : certains en bookmarkant, certains en partageant sur Facebook ou Twitter, d’autres en envoyant des mails, etc. Le pari de ces nouvelles plateformes, c’est d’unifier ces actions naturelles en leur donnant un sens : celui de la curation.

Les blogs et le web 2.0 sont nés de l’idée qu’en donnant à tous les moyens d’écrire sur le web, on créerait quelque chose de beaucoup plus riche qu’en laissant des ingénieurs remplir des bases de données.

Il est temps de montrer qu’en donnant à tous les moyens d’être des “curators”, ceci n’a pas été “la plus grande saloperie qu’aient jamais inventée les hommes“.

NB : pour aller plus loin, je fais ma propre curation du sujet “curation” ici.

Crédits photos cc FlickR : calafellvalo, comedy_nose, Lomo-Cam.

Article initialement publié sur TechCrunch.

Disclosure : Cédric Giorgi, rédacteur sur Techcrunch France et organisateur du #TCFRemix, est directeur marketing de Goojet (qui édite Scoop.it)

]]>
http://owni.fr/2010/11/26/l%e2%80%99ere-des-%e2%80%9ccurators%e2%80%9d-aurait-elle-sonne/feed/ 29
La troisième frontière du Web http://owni.fr/2010/03/12/la-troisieme-frontiere-du-web/ http://owni.fr/2010/03/12/la-troisieme-frontiere-du-web/#comments Fri, 12 Mar 2010 09:12:23 +0000 Patrice Lamothe http://owni.fr/?p=9960 PDG de Pearltrees et auteur du blog Cratyle, Patrice Lamothe expose dans ce billet les différentes phase de développement du Web. Parti d’un micro-démocratie où “chacun disposait de tous les attributs d’un média”, le réseau semble actuellement en mesure de franchir une frontière : celle qui vise à permettre à chacun d’être un média complet.

3173669231_8933744372

Chacun sent que le Web entre aujourd’hui dans une nouvelle phase de son développement.

Les tentatives de synthèse fleurissent, mais ne semblent pas suffire à rendre compte des évolutions en cours. Peut-être sont-elles encore trop vagues? ou déjà trop précises? Le concept de “Web Squared” s’ajuste assez bien au “Web 2.0″ passé, mais il ne permet pas vraiment de saisir la nature des changements, moins encore d’en déduire les effets concrets. Le “Web en temps réel”, l’une des principales expressions du moment, ne nous renseigne pas beaucoup plus sur la portée de ces changements.

Peut-être trouvera-t-on d’ailleurs inutile de vouloir décrire les évolutions d’ensemble du Web? Il y aurait de très bonnes raisons pour celà. Assemblage de ressources techniques, de fonctionnalités et d’usages, le Web ne se réduit à aucune de ces dimensions en particulier.

Le succès des nouveautés techniques y dépend de l’écosystème de produits existants. L’évolution des produits y est liée à celle des usages. Les usages ne s’y développent qu’à partir des techniques et des produits. Ce réseau d’interaction semble totalement rétif aux synthèses, tout occupé qu’il est à surprendre et à réinventer.

Je crois pourtant que la nature décentralisée du Web offre un moyen de comprendre son orientation. Sans dirigeant, sans régulation externe, sans règlement interne ou plus exactement avec un nombre de règles tel qu’aucune n’est jamais uniformément appliquée, les principes fondateurs du Web sont les seuls capables de véritablement le coordonner. Ce sont eux qui tracent les orientations de l’ensemble, des orientations que l’on peut donc comprendre et prolonger.

C’est cette piste que je voudrais explorer ici. J’espère qu’elle permettra d’éclairer la très courte histoire que le Web a connu jusqu’ici, peut-être plus encore d’en déduire les évolutions à moyen terme. Il ne s’agira certes pas là de prédire un quelconque avenir – il y a une limite au plaisir de se tromper – mais d’essayer de rendre visible des évolutions déjà engagées, des évolutions peut-être suffisament profonde pour influence le Web pendant de nombreuses années.

Les principes fondateurs du Web

Ces principes sont simplement les objectifs initiaux que Tim Berners-Lee et Robert Caillau ont donnés à leur projet. En éliminant le jargon technique, il est possible de les réduire à trois propositions générales et universellement valables:

1- Permettre à chacun d’accéder à tout type de document

2- Permettre à chacun de diffuser ses propres documents

3- Permettre à chacun d’organiser l’ensemble des documents

Ils ont guidé le développement des technologies, des fonctionnalités et des usages du tout premier Web, limité d’abord aux scientifiques du CERN puis aux communautés de chercheurs qui lui étaient liées.

En raison du très petit nombre d’utilisateurs initiaux et de la population très particulière à laquelle ils appartenaient, ce tout premier Web était doté d’une propriété qui n’a jamais été reproduite depuis : chacun de ses utilisateurs avait suffisamment de compétences techniques pour accéder aux documents, pour en créer, et enfin, en programmant en HTML, pour participer à l’organisation de l’ensemble des documents. A la fois lecteur, créateur et organisateur, chaque utilisateur se conformait aux trois principes fondateurs.

Le Web initial, micro-démocratie où chacun disposait de tous les attributs d’un média, assura son propre développement et fixa durablement ses orientations. Son objectif en tant que projet était tracé : permettre à chaque utilisateur de devenir un média complet, c’est-à-dire de lire, de créer et d’organiser l’ensemble des documents qu’il souhaitait.

L’ambition était à la fois immense et claire. Immense car il ne s’agissait ni plus ni moins que de démocratiser l’ensemble de l’activité médiatique. Claire, car l’utopie proposée à tous était en fait déjà réalisée par le petit groupe des pionniers. Elle plaçait ainsi les principes fondateurs au centre de la régulation et du système de développement du Web

Le Web devint un projet Open Source universel et sans leader déclaré, comparable en cela, mais à une autre échelle, à ce qu’est en train de devenir Wikipédia. Ses principes fondateurs assuraient l’intégration des nouveautés dans l’écosystème. Ils renforçaient naturellement celles qui leur correspondaient, freinaient mécaniquement les autres, et orientaient ainsi durablement l’évolution d’ensemble.

40899792_d82b223a25

Les deux premières phases d’expansion

Que l’on regarde maintenant les vingt années écoulées depuis le Web des pionniers, et l’on verra que les principes fondateurs ont non seulement assuré l’unité de d’ensemble du projet, mais encore structuré les étapes de son développement.

Le principe « permettre à chacun d’accéder à tous les documents » établit la première frontière du Web et guida sa première expansion. Pour l’essentiel, cette phase s’étendit de 1994-95 à 2003-2004. Elle correspondit au développement massif d’un Web pyramidal, dans lequel un petit nombre réalisait, organisait et distribuait les contenus que la majorité consommait.

Le portail et le moteur de recherche en étaient les produits clés ; HTML et PHP les technologies principales ; l’accès à l’information l’usage privilégié. Il n’est pas inutile de rappeler que ce modèle recouvre encore la majorité du Web actuel, et continue à se développer au rythme de croissance d’internet.

La deuxième phase d’expansion du Web commença lors des années 2000-2002, sous l’impulsion de projets tels que Blogger, Myspace puis Wikipédia. Rapidement identifié comme un tournant majeur, le « Web 2.0 » correspondit simplement à la popularisation du deuxième principe fondateur : « permettre à chacun de diffuser ses propres documents ».

Des technologies telles qu’AJAX ou RSS offrirent au plus grand nombre des fonctionnalités de création et de diffusion jusqu’alors réservées aux seuls développeurs. Une foule de produits permit à chacun de mettre en ligne des contenus de tous types. Le succès du premier Web et la force d’ensemble du projet permirent enfin aux usages correspondant de s’étendre massivement. Les blogs, les réseaux sociaux, les wikis devinrent les emblèmes de la démocratisation de la parole et de la discussion généralisée.

On peut aujourd’hui estimer que le Web participatif appartient au quotidien de 200 à 300 millions de personnes. Le deuxième principe du Web a franchi à son tour le petit cercle des pionniers pour transformer les usages du grand public. Les technologies, les produits et les modes de fonctionnements sont maintenant en place pour qu’il s’étende progressivement à l’ensemble de la population. Son développement, devenu prévisible, ne requiert plus d’innovation radicale. Il se prolongera naturellement au fil des années.


La troisième frontière

Même rapidement évoquées, les deux premières étapes font nettement apparaitre ce qui constitue aujourd’hui la nouvelle frontière du Web. Au-delà de la foule d’innovations et de nouveautés qui poursuivent des voies déjà tracées, l’une des trois composantes du projet Web, « permettre à chacun d’organiser l’ensemble des documents » est encore loin d’avoir trouvé la voie du grand public.

A-t-on remarqué que le maillon essentiel du tissu technologique du Web, la traduction technique du troisième principe, le langage HTML, est à la fois celui qui a le plus contribué à la diffusion du Web et celui qui s’est le moins éloigné de sa forme technique initiale ? Que la création des liens hypertexte, qui tisse la structure véritable du Web, l’architecture des sites, le point de repère des moteurs de recherches, reste une activité complexe, très éloignée du quotidien, très peu adaptée à la multitude d’usages qui pourraient en découler ?

Après avoir permis à chacun de tout lire et de tout diffuser, le Web doit permettre à chacun de faire ce que ses premiers utilisateurs ont toujours pu faire, ce qui est au cœur de sa radicale originalité : tout organiser. L’écosystème du Web doit progressivement bâtir les technologies, inventer les produits et façonner les usages qui permettront à chacun de manipuler les contenus créés par chacun, de les assembler, de les éditer, de les hiérarchiser, de leur donner du sens. Le Web doit permettre à chacun d’être un média complet.

S’agit-il là d’un souhait ? D’un pari ? D’une hypothèse prospective ? Il s’agit au fond de bien plus que cela. Si des orientations pratiques pour l’avenir d’un système aussi complexe que le Web peuvent être tracées, elles doivent s’appuyer sur les seuls points de coordination possibles entre des acteurs trop divers et trop nombreux pour eux-mêmes se coordonner. Elles doivent s’appuyer sur les seuls éléments partagés : les principes fondateurs du projet.

Dire que la prochaine étape du développement du Web est la démocratisation de la capacité de l’organiser, c’est simplement constater que des trois brins d’ADN initiaux du Web, celui-là seul n’a pas atteint le niveau de développement des autres. Qu’il constitue à proprement parler la nouvelle frontière du projet.

243706129_7d063b73a7_o

Vers le Web total

Mais s’il en est ainsi, dira-t-on peut-être, puisque les développements successifs du premier et du deuxième principe sont maintenant assurés, les techniques, les produits et les usages innovants ne devraient-ils pas aujourd’hui converger vers cette nouvelle frontière supposée ? C’est bien ce qui se dessine sous nos yeux : la troisième phase du Web est déjà lancée.

Les conditions, les besoins et les moyens sont réunis pour que le troisième principe du Web s’étende au-delà du petit groupe des professionnels et des pionniers.

Sur le plan des usages, les réseaux sociaux sont en train de populariser l’édition instantanée de contenus. Prés de 20% des twitts échangés contiennent des URLs. Facebook place l’échange de lien au sommet de sa hiérarchie de fonctionnalités. Chez nombre de passionnés du Web, la lecture des contenus proposés par une communauté remplace celle des aggrégateurs de flux automatisés.

Sur le plan des techniques, systèmes collaboratifs et « Web en temps réel » permettent à chacun de coordonner ses appréciations avec ses différentes communautés, d’organiser au fil de l’eau les éléments passant à sa portée. Le mouvement d’ouverture des données et les technologies sémantiques étendent à la fois la matière première d’organisation du Web et les moyens d’y accéder. Les interfaces riches offrent les moyens de simplifier à l’extrême les opérations d’édition et d’organisation, pour que chaque utilisateur puisse manipuler des données complexes de manière intuitive, ludique et naturelle.

Sur le plan des produits et des fonctionnalités, les géants du Web comme les start-ups les plus avancées se dirigent insensiblement vers le Web organisé par l’utilisateur. Les dernières innovations de Google ? Un système de collaboration généralisé – Wave – un système de discussion public de l’ensemble des contenus du Web – SideWiki – et l’ouverture de son moteur de recherche aux avis explicites et aux notations de ses utilisateurs.

C’est d’ailleurs le modèle hiérarchique et automatique du moteur de recherche que l’organisation du Web par ses utilisateurs s’apprête à remettre en cause. Wikia fut la première tentative notable de développement d’un moteur de recherche à algorithme collaboratif. Mahalo renforce maintenant la dimension humaine de la recherche en orchestrant les questions d’utilisateur à utilisateur. Pearltrees, précisément défini comme un réseau d’intérêt, permet aux membres de sa communauté d’organiser, de connecter et de retrouver naturellement l’ensemble des contenus qui les intéressent. Foursquare, à la différence des systèmes de géolocalisation qui l’ont précédé, ne s’applique pas aux personnes mais aux objets : les joueurs y organisent ensemble les lieux où ils ont l’habitude d’aller.

Les techniques, les produits et les usages issus des premières et deuxièmes phases ne vont pas pour autant s’effacer. La prochaine étape combinera au contraire les trois principes qui ont fait l’histoire et l’originalité du Web : elle fera de chacun à la fois un spectateur, un créateur et un organisateur.

Le Web sera alors pour tous ce qu’il fut pour un petit nombre : un média total, démocratique et démocratisé.

Patrice Lamothe

PDG de Pearltrees

> Article initialement publié sur Cratyle

> Illustrations par Robert Veldwijk, par psd et par Laughing Squid sur Flickr

]]>
http://owni.fr/2010/03/12/la-troisieme-frontiere-du-web/feed/ 26
[LeWeb] Pearltrees, des perles pour organiser le web http://owni.fr/2009/12/10/leweb-pearltrees-entretien-avec-patrice-lamothe/ http://owni.fr/2009/12/10/leweb-pearltrees-entretien-avec-patrice-lamothe/#comments Thu, 10 Dec 2009 08:15:24 +0000 [Enikao] http://owni.fr/?p=6047 patrice-lamothePearltrees est une start-up particulièrement remarquée, qui a été écoutée attentivement à l’occasion de l’événement LeWeb’09. Pearltrees propose un outil qui innovant permet de créer très simplement des séries de liens dynamiques sous forme de perles, en quelques clics, puis de les assembler en les rapprochant par un simple glisser-déposer : on obtient des sortes d’arbres thématiques, voire généalogiques si l’on enchaine plusieurs niveaux.

Patrice Lamothe, infatigable évangélisateur du web et des usages numériques, mais aussi passionné de sciences dures et de sciences humaines, a répondu à quelques questions pour les visiteurs de la soucoupe.

Petit résumé d’une riche discussion.

Comment est née l’idée fondatrice de pearltrees ?

C’est une réflexion de fond sur le web participatif, que j’ai menée pendant 3 ans à partir de 2004, à une époque où je bloguais activement sur la sociologie et la philosophie politique. Je me suis rendu compte que Jürgen Habermas et Bruno Latour décrivaient particulièrement bien les mécanismes des communautés participatives et que leurs théories s’appliquaient très bien au web social.

J’avais envie de proposer un nouveau moyen d’appréhender le web pour dépasser les limites techniques et aller vers leur vision organique, épurée pour éviter tout parti-pris.

Et dans les faits, comment cela se traduit-il ?

Je commencerai par parler d’une évolution en quelque sorte historique. Pour résumer un peu les âges du web grand public :

- dans les années 90 le contenu était en ligne sur quelques sites faciles à connaître, car peu de gens mettaient en ligne faute de compétences (les entreprises étaient presque les seules). C’est l’époque des portails, des favoris, il s’agissait avant tout de voir. Les enjeux tournaient autour de la mise en page, de l’ergonomie et du temps de chargement.

- au milieu des années 2000, il est devenu plus simple de créer du contenu et de le mettre en ligne, l’ADSL s’est répandu dans les foyers, c’est le début des blogs et des plateformes de partage (vidéo, favoris). Face à la multiplication des données il est devenu plus important de trouver. Les notions d’indexation, de ranking et autres optimisation de recherche devenaient primordiales.

- aujourd’hui, il y a quelque chose qui se dessine, c’est l’organisation du web : comment donner du sens à ce que je découvre en créant des hiérarchies et rattacher des contenus de tous types à des thématiques. La multiplicité des contenus demande non pas un simple rangement, même avec des cases multiples comme avec les tags de Digg ou delicious, mais une visualisation des liens. Et il ne s’agit pas de faire des cartes heuristiques qu’on appelle aussi mind mapping pour faire chic, car pour la plupart des gens c’est du chinois !

Avec pearltrees, j’ai voulu garder le partage qui fait la richesse des médias sociaux que l’on connaît déjà, en ajoutant la couche visuelle qui est rend l’organisation plus “naturelle”. Nos perles apportent donc à la fois la perception et l’organisation.

Qu’est-de qui différencie pearltrees d’autres formes d’archivage et de classement ?

Pearltees est un format universel, et la technique est reléguée dans les coulisses, notre interface épurée doit favoriser l’utilisation par les néophytes. Par rapport au tag que l’on trouve chez delicious par exemple, nous apportons du sens grâce à la représentation visuelle : relier deux perles, organiser un arbre à plusieurs embranchements dit quelque chose de plus que simplement des liens partageant un même tag.

Et puis la taxonomie des tags n’est pas toujours pertinente, parce que certains mots sont polysémiques ou parce que chacun voit des choses différentes dans un même mot-valise.

L’interface est agréable, mais on aimerait parfois pouvoir ajouter des couleurs pour notifier la typologie d’une perle, par exemple en fonction du type de contenu (bleu pour la vidéo, rouge pour le son, vert pour l’image…). Pourquoi ne pas ouvrir la porte à la personnalisation ?

Surtout pas ! Pour rentrer dans des considérations sémantiques, je dirais que toute ontologie résulte d’un choix “politique”, qui est donc arbitraire. Gödel en a fait la démonstration dès les années 30 : tout édifice doit reposer sur des affirmations arbitraires et indémontrables ou incomplètes.

Si j’impose le bleu pour la vidéo, il y aura toujours quelqu’un pour lui préférer une autre couleur. Si je crée de couleurs par catégorie, il se trouvera toujours une nouvelle catégorie qui sera un peu entre les deux. Au fond c’est ce qui anime les classificateurs depuis Darwin. On crée des boîtes pour ranger les espèces, et puis un jour on tombe sur l’ornithorynque et on se prend la tête, on déplace les boîtes pour voir, on en crée d’autres…

En mathématiques, ça porte un nom : le monde est continu, et non pas discret. Entre noir et gris, il y a une palette infinie de tons. Aussi, il vaut mieux rester sur ce qui fait le sel de nos navigations, c’est à dire les trouvailles.

Alors pearltrees, c’est un peu moins de personnalisation graphique pour plus d’efficacité ?

Avec pearltrees, je préfère que chacun puisse comprendre ce que n’importe quel utilisateur a organisé. Il n’y a pas besoin de chercher à comprendre les codes adoptés par cet utilisateur, tout devient plus simple et du coup plus naturel à partager. C’est aussi un des avantages de pearltrees : chacun peut prendre une série de perle d’un autre et les raccrocher à ses propres perles.

Le projet de démocratisation d’Internet, qui fait de chaque utilisateur un média potentiel, est inscrit dans son ADN d’origine. Les 200 premiers utilisateurs pouvaient lire du contenu, mettre en ligne du contenu, organiser le contenu. Nous nous inscrivons directement dans cette ligne.

Dans les dernières nouveautés de pearltrees, qui vient de passer en version beta, qu’y a-t-il ?

Nous intégrons désormais naturellement les flux Twitter, soit d’une personne, soit d’un hashtag. Twitter est dans l’instantané, c’est le real time web, c’est l’influx du monde de l’information et des interconnexions. Mais  les tweets sont très volatils. Aujourd’hui on peut les garder en mémoire, puis les ranger, les organiser, les relier aux perles des autres sur un même thème.

Avec pearltrees on apporte la mémoire à l’influx nerveux. Biologiquement parlant, quand la mémoire s’ajoute à l’influx, ça peut déboucher potentiellement sur l’intelligence. Voilà qui devient intéressant, non ?

Merci Patrice.

La perle officielle LeWeb’09.
leweb09

]]>
http://owni.fr/2009/12/10/leweb-pearltrees-entretien-avec-patrice-lamothe/feed/ 35
LeWeb’09 et le temps réel http://owni.fr/2009/12/01/leweb09-et-le-temps-reel/ http://owni.fr/2009/12/01/leweb09-et-le-temps-reel/#comments Tue, 01 Dec 2009 13:41:17 +0000 [Enikao] http://owni.fr/?p=5786 C’est dans une semaine !

leweb09La soucoupe est en train de réviser ses propulseurs à gazouillis et son moteur à billets, coup de chiffon sur le pare-brise et les senseurs, graissage-vidange, un petit coup de peinture sur l’aile gauche, test du détecteur de particules et du sonar… et je serai fin prêt pour aller plonger dans la foule au 104 et diffuser autant d’information que possible, en temps réel, œuf corse.

Pourquoi le temps réel ? Parce qu’en 2009, avec en particulier une forte contribution de Twitter, mais aussi des applications mobiles et de la géolocalisation, le temps s’accélère pour coller au présent. Les implications sont diverses, et sans doute non exhaustives parce que les usages ne font que naître : accélération de l’information, échange et partage multi-plateformes, réalité augmentée, témoignages d’endroits isolés ou exclusifs, bruissement des feuilles annonçant la bourrasque, Internet mobile et Internet des objets….

Le programme complet de rassemblement LeWeb’09 est détaillé et Loïc annonce déjà plus de 1 800 participants. Cette année les speakers seront nombreux et plutôt variés.

Notons la présence :

  • >> des classiques : Nokia, BT, Google, Microsoft, Paypal, Dell, YouTube, Ning…
  • >> des bons clients habituels : Simoncini pour Meetic, Orange, Arrington deTechCrunch, Xavier Court de Vente Privée, Joi Ito de Creative Commons, Freddy Mini pour Netvibes, Robert Scoble
  • >> des p’tits qui promettent : Barak Hachamov pour My6Sense, Patrice Lamothe pour Pearltrees, Tariq Krim pour Jolicloud, Marc Rougier de Goojet entre autres
  • >> des p’tits qui ont beaucoup grossi en quelques temps : Jack Dorsay pour Twitter, Sean McCullough pour Ping.fm, Martin Lorentzon pour Spotify, Ethan Beard de Facebook
  • >> des agitateurs d’idées : Danah BoydSteve Gillmor, Paul Carr, Brian Solis, Cyril Zimmermann, Andrew Keen
  • >> des outsiders plus étonnants : La Reine Rania Al Abdullah de Jordanie et Violet Blue

Les ateliers méritent aussi le coup d’œil, même si le format de 50′ risque d’être dense : API Twitter, gestion de communauté avec Danone et Six Apart, applications Facebook et Nokia…

Pour voir tout ça de près, en mode dynamique, rien de tel qu’un petit collier de perles : Pearltrees.

]]>
http://owni.fr/2009/12/01/leweb09-et-le-temps-reel/feed/ 3
L’ordinateur est en train de l’emporter sur le computer http://owni.fr/2009/11/26/l%e2%80%99ordinateur-est-en-train-de-l%e2%80%99emporter-sur-le-computer/ http://owni.fr/2009/11/26/l%e2%80%99ordinateur-est-en-train-de-l%e2%80%99emporter-sur-le-computer/#comments Thu, 26 Nov 2009 10:56:33 +0000 [Enikao] http://owni.fr/?p=5740

322481121_f5712a70b2_o1A ses débuts, l’ordinateur était une grosse calculatrice avec des boucles d’itération et des fonctionnalités mathématiques un peu avancées. Puis avec le perfectionnement et l’ajout de composants internes ou externes, ce fut aussi progressivement une machine à écrire, à mettre en page, à mettre des sons, à créer des images, à les animer… aujourd’hui, c’est une machine qui peut aussi se connecter à d’autres et permettre à son utilisateur d’interagir avec des applications distantes, de piocher dans des bases d’informations, ou d’être en contact avec d’autres utilisateurs par des moyens électroniques.

Ce qui était une machine dont l’étalon était la puissance est devenu un maillon d’un réseau dont le point fort est le nombre, la force et la diversité des liaisons. Le rigide computer est devancé par le complexe et riche ordinateur. Comme notre cerveau.

Le terme français est assez étonnant car plutôt isolé (avec l’italien) : l’ordinateur, c’est ce qui range, classe, trie. Alors que le terme anglais computer et ses déclinaisons en allemand, russe, portugais, serbe, hollandais, coréen, grec… définit ce qui calcule. D’après ce que j’ai trouvé, il existe aussi deux cas étonnants : les norvégiens et suédois datamaskin qui suggère l’exploitation de données, et le slovaque počítač (littéralement : « ce qui permet de lire, de visionner »). Notons que l’espagnol ou le roumain semblent employer indifféremment les deux notions, calcul et organisation, mais toute précision extérieure est la bienvenue.

Si j’en crois Wikipedia, c’est le philologue Jacques Perret qui aurait proposé en 1955 à IBM (qui trouvait le terme computer trop restrictif) le mot « ordinateur », par référence biblique au grand ordonnateur qui organise le monde. Il met les choses dans l’ordre.

Et bien cette conception de la machine, qui n’est pas sans rapport avec une vision plus globale de l’intelligence et des capacités mentales, est passée en partie au second plan. Certes, une bonne puissance (qu’il s’agisse du processeur ou de la mémoire vive) est utile pour faire fonctionner correctement certaines applications gourmandes en ressources ou pour en maintenir plusieurs actives en même temps, mais le succès commercial des netbooks et la baisse parallèle des ventes d’ordinateurs montre que la course au toujours plus n’est plus forcément de mise. Le good enough se fait plus prégnant quand les moyens financiers sont en baisse, quand la machine portable est un quatrième écran, mais aussi quand un marché sature et cherche à s’étendre… vers le bas.

Car les pratiques ont changé, et notre conception de l’intelligence et des capacités mentales également sans doute. Depuis quelques temps, avec les nouveaux outils de partage (Digg et autres delicious) et d’attraction de contenus (RSS) et les médias sociaux (blogs, Facebook, Twitter, Dailymotion…), la technologie est devenue transparente pour nous permettre de faire des choses sans faire de calculs : propulser et recevoir des informations dans une infosphère dont les caractéristiques (locuteurs, interlocuteurs, tempo, volume, capillarité entre les différents canaux) sont propres à chacun. Nous entrons dans un moment où il devient important de filtrer, trier, classer les informations et les données pour gagner du temps, éviter l’infobésité et enrichir utilement son propre savoir tout en contribuant au savoir des autres. Là où auparavant il importait avant tout de calculer, depuis que le grand public s’est emparé de l’ordinateur, il importe davantage de savoir chercher et archiver, connecter et archiver.

Ce sont bien ces enjeux qui animent à la fois les communautés de l’informatique mais aussi de l’information et du savoir en général :

» stockage (espace, serveurs dédiés, logiciel et base de données comme services distants) et archivage (classement et indexation, traçabilité, effacement et droit à l’oubli)

» classement et taxonomies personnalisées à plusieurs dimensions grâce aux tags (sur les favoris partagés comme delicious, mais aussi sur Twitter avec les hashtags) ou aux listes, ou encore sous forme dynamique et d’organigramme visuel comme Pearltrees.

» accès aux données, c’est à dire recherche dans les archives mais aussi libération des données enfermées dans des silos, avec l’exemple de la donnée publique ouverte et le data.gov

» alertes et informations en temps réel, avec par exemple l’intégration des gazouillis de Twitter dans Bing ou Google, et le récent accord BNO / MSNBC, et plus simplement l’intégration des flux RSS dans des outils professionnels (récent partenariat Netvibes / Sage). Signe des temps : le web et temps réel est la thématique de la conférence LeWeb’09.

»recoupement et rapprochement d’informations et d’idées : fact checking (suivre à ce sujet l’expérience du Monde.fr : les décodeurs), graphes sociaux, applications composites ou mashups, mise en regard de valeurs ou évolution dans des infographies, cross-over entre univers.

» partage de différents types de documents (texte sur Scribd, présentation sur Slideshare, liens grâce aux raccourcisseurs d’URL comme bit.ly qui permet d’obtenir des statistiues sur les taux de clics, vidéos avec YouTube et autres Dailymotion ou Vimeo) par tous types de moyens de diffusion, du statut Facebook : le lifecasting ou 36 15 MyLife a fait place au mindsharing façon “regardez ce que j’ai découvert”. L’illustration la plus récente et significative est l’invite de Twitter, qui est passé de “What are you doing ?” à “What’s happening ?”

» vote et qualification des contenus pour améliorer collectivement la pertinence du classement et de l’indexation : au-delà du commentaire, donner simplement un “plus” ou un “moins”, ou bien attribuer une note, est un système que l’on retrouve sur Agoravox ou Le Post, mais aussi dans d’autres systèmes qui font remonter les “tops”, par exemple les tops des lecteurs et les tops selon les contributeurs chez aaaliens.

Il s’agit donc aujourd’hui d’organiser le savoir, son accès et ses exploitations plutôt que de la simple machine à calculer. Pour reprendre l’expression que m’avait suggéré il y a quelques mois un camarade qui prenait au sérieux l’organisation de sa tuyauterie médias sociaux : nous sommes passés d’une obsession du neurone à un focus sur le pouvoir des synapses. Le parallèle avec le cerveau est particulièrement pertinent.

Ce réseau de cellules constitue une formidable machine à classer, ranger, regrouper, associer… et à remplir les vides ou à remettre de l’ordre quand il en manque. Il faut une certaine dose d’abstraction et d’extrapolation pour faire de quelques minuscules pixels un personnage, par exemple Mario en 1981. Pourtant, même en proposant la version d’origine à un jeune joueur aujourd’hui, son cerveau remplira spontanément en très peu de temps les vides pour “lisser” le personnage et se figurera quelque chose proche de ce qu’on peut voir en 2008. Il y a là quelque chose de fractal : à partir de traits grossiers, le cerveau imagine la complexité.

De même, le fameux exemple de dyslexie montre que le cerveau remet les lettres dans l’ordre assez facilement et on se surprend à lire de manière plutôt fluide ce qui est pourtant mélangé.

Cela fait partie de facultés infra-conscientes de nos cellules grises, qui travaillent très vite et à notre insu. On peut très bien faire de savants calculs balistiques de paraboles en fonction du vent, du poids de l’objet, de la distance… et arriver 5 minutes après pour ramasser la balle au sol, ou bien simplement laisser faire nos yeux et notre cerveau et la rattraper au vol (et éventuellement de libérer un prisonnier au passage).

La génération Y qui a pu connaître le début de l’ordinateur et la fin du computer ressent plus naturellement que c’est la connexion et l’efficacité qui prime désormais sur la grosse machinerie. Cela permet d’accéder à davantage de richesse, d’apports extérieurs, de gagner en souplesse et en réactivité. Pourtant, dans les parcours scolaires le “par cœur” et le “magistral”continue à être le credo, au détriment de l’apprentissage de la recherche et de la classification, de l’apprentissage d’un savoir-être et de la relation à l’autre, de l’encouragement au bidouillage et au do it yourself. En entreprise le modèle pyramidal avec tous ses rouages bien alignés prime encore sur le modèle lâche du réseau informel. Le débat tête bien pleine / tête bien faite est sans fin, mais au jeu de l’adaptation et de la réactivité, à l’heure où les contextes technologiques, économiques et sociaux évoluent vite, quand les pratiques dépassent la technique et se diffusent largement, il serait temps que les paradigmes sociaux en tiennent compte.


» Article initialement publié sur http://enikao.wordpress.com
» Photo de Une par ibananti sur Flickr

]]>
http://owni.fr/2009/11/26/l%e2%80%99ordinateur-est-en-train-de-l%e2%80%99emporter-sur-le-computer/feed/ 4