Affichage des articles dont le libellé est science. Afficher tous les articles
Affichage des articles dont le libellé est science. Afficher tous les articles

dimanche 15 juin 2014

La force du nombre

Carte des utilisateurs de facebook ("seulement" 1,28 milliards)
D'après le site internetworldstats.com, l'internet comptait 2.405.518.376 utilisateurs au 30 juin 2012, environ 2,8 milliards en 2013 d'après l'Union Internationale des Télécommunications.

Ca fait du monde, même si Google trouve que ce n'est pas assez, et a fondé une entreprise qui s'appelle O3b pour "the Other 3 Billions", qui met sur orbite des relais satellites pas trop chers pour raccorder les laissés pour compte.

En attendant, ces 2,5 milliards de gens peuvent potentiellement se parler entre eux immédiatement et gratuitement, et faire des choses ensemble (une fois qu'ils ont payé leur fournisseur d'accès et appris l'anglais).  Mais que font-ils, à part regarder des films pornos et des photos de petits chats ? C'est un poncif prétentieux que de se plaindre de l'imbécillité de l'humanité qui aurait à sa disposition un outil extraordinaire pour changer le monde, et ne s'en servirait que pour propager des blagues salaces et des théories du complot.

Oui l'internet est un outil extraordinaire, dont personnellement je ne me remets toujours pas, et oui il a changé le monde.

Sans parler des chefs de guerre, des banquiers, des espions, des curés, des multinationales, etc. qui ont de plus en plus de mal  à dissimuler leurs méfaits, il y a des millions d'entreprises, à but lucratif ou pas, qui fonctionnent avec la participation des internautes. Pas seulement comme clients, c'est l'évidence, mais aussi comme collaborateurs.  Pour ne citer qu'un exemple, Ebay ne pourrait pas fonctionner sans feedback. Les marchands de chambres d'hôtel et d'informatique sont ceux qui s'appuient le plus largement sur les avis des utilisateurs. Lesquels peuvent certes être trafiqués, mais c'est là qu'intervient la force du nombre : un hôtelier et ses potes peuvent poster quatre ou cinq avis dithyrambiques sur leur propre boîte, mais probablement pas 1280. 

Les anglophones, qui nous donnent des mots pour mettre sur les choses nouvelles, ont inventé le crowdfunding (en français la finance participative) : on peut acheter des parts d'investissement immobilier, participer à toutes sortes d'investissements dans des start-up, et aussi bien sûr se faire arnaquer par des princes nigérians, mais qui ne risque rien n'a rien. Je recommande toutefois la possession d'un minimum d'intelligence et de méfiance, et d'un compte Paypal, avant de s'aventurer sur ce terrain. Citons parmi les sites qui ont pignon sur internet Kickstarter, Indiegogo, KissKissBankBank .

http://www.kiva.org/
Le crowdfunding est aussi une manne pour les associations charitables, évidemment, qui ont toutes un site internet avec un bouton "pour faire un don, cliquez ici". 

Je retiendrai mon association de micro-crédit favorite, Kiva, qui avec plus d'un million d'utilisateurs a prêté plus de 500 millions de dollars depuis 2005 (ça aide que le patron de Paypal leur ait offert la gratuité des transactions financières). J'ai fait l'apologie enthousiaste de Kiva en 2008 dans Modern Heroes, et ils se portent très bien depuis, merci pour eux.

Mais bon pour tout ça il faut avoir de l'argent superflu, ce qui n'est pas donné à tout le monde. Concentrons-nous donc plutôt sur la participation entièrement gratuite (et de préférence pas trop fatigante). 

Enter le crowdsourcing (tentatives en français : "collaborat", "externalisation ouverte", "impartition à grande échelle", aïe aïe aïe...).

Tout le monde connait le crowdsourcing, parce que tout le monde connait Wikipedia. L'encyclopédie en ligne est basée sur le présupposé qu'il y a beaucoup plus de gens qui aiment fournir des informations justes, précises et corroborées que de gens qui aiment faire des blagues et faire croire des conneries à leurs concitoyens. Et apparemment ça marche, puisqu'avec 28 millions de collaborateurs, 31 millions d'articles en 287 langues, Wikipedia contiendrait certes des erreurs, mais pas plus que l'Encyclopedia Britannica, parait-il. 

Wikipedia n'est plus le free-for-all qu'il était à ses débuts, il existe maintenant tout un processus de propositions, corrections et arbitrages avant de publier un article en ligne. Mais l'idée fondamentale est qu'une page vue par des centaines de milliers de gens qui ont la capacité de corriger ce qui leur semble être une erreur va statistiquement éliminer les propositions "aberrantes". C'est un processus stochastique, comme la sélection naturelle.

Réfléchissons deux minutes : Wikipedia a été fondée le 15 janvier 2001, moins de huit ans après que le CERN a fait cadeau au domaine public du World  Wide Web, développé par Tim Berners-Lee et Robert Caillau (total respect). Avec un minimum d'optimisme, une fois n'est pas coutume, on peut considérer que l'une des premières réactions de la communauté des internautes a été de créer une encyclopédie véritablement universelle mettant en commun tout le savoir existant pour l'offrir à tous GRATUITEMENT. Elle est pas belle la vie ?

Mais il existe des projets scientifiques participatifs de taille plus modeste et plus faciles à utiliser : mon préféré est Zooniverse (plus d'un million d'abonnés quand même). Voyez-vous, les scientifiques ont aujourd'hui les moyens techniques de collecter des masses de données. Principalement des millions de photos (surtout les astronomes, mais pas seulement). Sauf qu'ils n'ont pas ensuite le personnel pour les trier et les analyser, dire ce qu'il y a dessus, en un mot les regarder. Et c'est une chose que les ordinateurs ne savent pas encore faire. Or donc, l'idée de Zooniverse est de mettre en ligne les données, et de demander au public de les trier. 
On peut suivant ses goûts scruter des photos de galaxies, d'étoiles, de fonds marins, de planètes, de baleines, de trou noirs, la surface de la lune, du soleil, de mars, reluquer des chauve-souris, des condors, des cyclones, ou des animaux de la savane.

Impala - Snapshot Serengeti
Je suis fan de ce dernier, qui s'appelle Snapshot Serengeti. Il s'agit de repérer des animaux sur des photos prises par des appareils automatiques sensibles au mouvement installés dans le parc du Serengeti, comme son nom l'indique. La plupart du temps on ne voit rien, ou des bouts d'animaux plus ou moins identifiables, des arrière-trains en général. Mais de temps en temps on tombe sur une photo parfaite et on est super content. C'est comme un safari photo à domicile.

Le système là aussi est stochastique : chaque photo est vue par un certain nombre de personnes différentes. Si l'une d'entre elles se trompe, ce n'est pas grave. Mettons que 19 internautes ont vu un rhinocéros et un autre a vu un babouin, c'est qu'il était bourré, mais sur des centaines de milliers de photos, le résultat, statistique encore une fois, est parfaitement exploitable pour suivre l'évolution des populations de ces charmantes bêtes.

Autre projet épatant : le Smithonian Institute propose au public de déchiffrer et transcrire les manuscrits conservés dans ses archives, afin de pouvoir plus facilement les indexer et exploiter ensuite. Journaux de bord, récits d'explorateurs et principalement des notes de botanistes. Il y a un autre motif à cette entreprise c'est que les Etazuniens ne savent plus lire l'écriture cursive, qu'ils n'apprennent plus à l'école ! Mais c'est une autre histoire. 

A ma connaissance, le crowdsourcing le plus avancé en France est celui des sociétés de généalogie, dont les membres déchiffrent et mettent en ligne les registres d'état civil, mais la participation est rarement gratuite.

Pour les participants d'un niveau plus expert, on peut donner de la capacité de calcul de son ordinateur au CERN ou à d'autres labos scientifiques via BOINC (j'en ai parlé ici), ou même s'occuper d'une sonde spatiale récemment offerte au public par la NASA

Je parle de ceux que je connais pour les avoir testés, mais il y a des tonnes de projets scientifiques répertoriés par le site http://scistarter.com/.

A part ça si vous trouvez que l'épigraphie ou l'observation astronomique c'est boring, que votre truc c'est changer le monde, là maintenant, faut qu'ça pète bordel, en même temps vous n'avez pas le temps ou la santé pour vous engager dans les paras, Médecins Sans Frontières, les casques bleus ou l'EEIL, vous pouvez toujours signer des pétitions.

La place de la Seigneurie sans autos
Les esprits chagrins vous diront que c'est se donner bonne conscience à bon compte, un truc de feignasses, et qu'il faut balancer des cocktails molotov sur les CRS. Personnellement je suis pyrophobe, j'ai peur du feu et de tout ce qui est chaud, raison pour laquelle je ne fais pas la cuisine, mais ne nous égarons pas.

Je me flatte également de ne jamais avoir signé une pétition qui n'ait pas abouti, depuis le jour de 1979 où j'ai signé une pétition pour l'interdiction de la circulation automobile dans le centre historique de Florence, après avoir manqué me faire écraser sur la piazza della Signoria par la mercédès d'un touriste égaré.

Bien entendu, pour ne pas mettre à mal mon record, je suis très très très sélective, mais enfin ça prouve que c'est possible.


Livraison d'une pétition à Madrid, en 2011
Là aussi, les sites de pétitions en ligne sont légion. Moi j'aime bien Avaaz, et Change.org.
Avaaz est une puissance respectable, avec plus de 36 millions de participants, and -  literally -  counting, puisque l'on voit sur la page de garde le compteur avancer, ce qui a le don de me fasciner. Je soupçonne d'ailleurs que c'est ce gadget qui fait son succès. En France, l'accueil est mitigé, mais j'ai regardé toutes les critiques qui lui sont faites, et je n'ai rien trouvé de décourageant, les accusations émanant soit de fachos reconnus, soit de gens qui ne sont pas d'accord avec telle ou telle initiative du groupe.

Change.org est la mère de toutes les batailles de la pétition en ligne : 70 millions d'inscrits, avec un site qui pour être honnête est mieux fait que celui d'Avaaz, mais moins fun. Il y a notamment un moteur de recherche, oui mais voila, il n'y a pas les compteurs et les signatures qui défilent, ce qu'on peut être futile, parfois.

Ce qui m'étonne, c'est que la vénérable Amnesty International, pour qui écrire des lettres aux autorités et signer des pétitions est le coeur de métier depuis toujours, ait laissé passer ce train. Amnesty a trois millions d'adhérents, mais peut-être moins dilettantes que les signeurs de pétitions en ligne du dimanche, je suppose.

Et sinon, vous pouvez aussi regarder des petits chats, après tout ça ne fait de mal à personne, et c'est toujours ça.



 Sources
Wikipedia
http://rue89.nouvelobs.com/2014/06/14/les-satellites-google-vus-dafrique-lappetit-vient-mangeant-252843
http://www.lemonde.fr/technologies/article/2014/06/10/le-crowdfunding-affole-les-compteurs_4435314_651865.html
http://www.wired.co.uk/news/archive/2014-05/22/digital-democracy
http://www.smh.com.au/it-pro/it-opinion/the-internet-has-turned-us-into-compulsive-sharers-who-know-it-all-20140522-zrljb.html
http://www.iflscience.com/space/crowd-sourced-science-revive-space-probe
http://www.larevuedudigital.com/2014/06/expert/petition-en-ligne-en-france-3-millions-de-francais-pour-22-000-petitions/

dimanche 30 décembre 2012

Histoires de FLOPS


Qu'est-ce qu'un FLOPS ? C'est un acronyme. Souvenez-vous, j'adore les acronymes.

Il signifie "FLoating-point Operations Per Second", ou en français « opérations à virgule flottante par seconde ». Notons que le S final est là pour Second, ce n'est pas un pluriel, on dit donc un flops, des flops.
(Je vais laisser tomber tout de suite les majuscules, c'est plus intime).

A quoi ça sert ? Beaucoup savent déjà que le flops est une unité de mesure de la puissance d'un ordinateur, ou pour être plus précis de sa capacité de calcul.

Pour faire très simple, une opération à virgule flottante est une opération au sens commun du terme (addition, soustraction, etc.) qui porte sur des nombres qui ne sont pas entiers, et qui donc tendent à posséder une virgule. En informatique, un nombre à virgule fixe se code 22,5, et c'est tout.
Un nombre à virgule flottante se code d'un coté 225, et à part la position de la virgule.
Ca prend un petit plus de place, mais ça permet de coder des tas de nombres différents : 2,25 ou 22,5 ou 0,00225 ou 25500 etc.
Pour les plus accros, voir la définition de wikipédia, dans laquelle personnellement je suis larguée dès la deuxième ligne.

En résumé un flops est, comme son nom l'indique, une opération mathématique par seconde.
Cette unité trouve son utilité pour les mesures de puissance des bien nommés super-calculateurs, des ordinateurs qui servent à résoudre des équations très compliquées, en et avec de très grands nombres, dans le domaine de la recherche scientifique.

Ceci pour dire que dans l'usage dit domestique d'un ordinateur, lorsque vous et moi vérifions l'addition sur le ticket de Carrefour, nous ne faisons jamais qu'une seule opération à la fois. Un temps de réponse inférieur à un dixième de seconde étant considéré par un (désespérément limité) opérateur humain comme instantané, une calculette simple n'a besoin que d'une dizaine de flops pour être considérée comme fonctionnelle.

C'est là que je voulais en venir avec ma nuance subtile entre puissance et capacité de calcul d'un ordinateur : les flops ne sont pas la panacée, et s'ils sont un sujet de préoccupation au CERN, par exemple, un architecte ou un designer s'en battent l'oeil et feraient mieux de se pencher sur leur carte graphique.

Ces réserves étant posées, les ingénieurs, informaticiens et chercheurs qui comme chacun sait sont de grands enfants, adorent jouer à qui a le plus gros, et adorent inventer des nouveaux mots, ont donné à la civilisation le Top 500 des super-calculateurs les plus puissants du monde, lequel ne saurait être pleinement apprécié sans ceci :

Faisons un peu de grec : kilo signifie "mille" en grec, ça tombe bien.
Mega signifie "grand", c'est mille fois mille, c'est à dire un million.
Giga signifie "géant", et égale un milliard, jusque là ça va.

Téra vient du grec teras, qui veut dire "monstre", comme dans "tératologie".
Il a été choisi en 1960 pour désigner mille milliards dans le système international d'unités.

En 1975, la communauté scientifique a décidé qu'elle avait besoin d'un plus grand multiplicateur et qu'elle était à bout de superlatifs grecs. Elle a donc adopté un système relativement plus rationnel pour inventer des préfixes : péta veut dire cinq, parce qu'un million de milliards est égal à mille à la puissance cinq.

Sur cette lancée ont été adoptés en 1991 exa (six) : un milliard de milliards, zetta (sept) : mille milliards de milliards, et yotta (huit) (à ne surtout pas confondre avec iota), un million de milliards de milliards.

Ces préfixes peuvent vous sembler abstraits mais ils sont très faciles à placer dans une conversation, surtout entre astronomes, il faut reconnaître. Vous pouvez par exemple remarquer négligemment que l'univers visible a un rayon d'une centaine de yottamètres, ou que l'énergie reçue du soleil par la terre est estimée à 174 pétawatts.

Cray II
Mais pour en revenir aux ordinateurs, c'est communément en gigaflops que se mesure leur capacité, c'est à dire en milliards d'opérations par seconde.

Quand j'étais petite, l'ambition des ingénieurs était de passer la barre du gigaflops. La course a duré longtemps, suffisamment pour que l'événement en 1985 reste dans les annales et le nom du vainqueur aussi : le Cray II.
Il était encore assez encombrant mais son design était plutôt étudié par rapport à ce qu'on avait vu avant. Le système d'exploitation était UNIX, ha la la les souvenirs du siècle dernier...

Les ordinateurs Cray portent le nom de leur créateur et fondateur de la société Cray research, Seymour Cray (1925-1996).

Le Top500 des super-calculateurs est publié deux fois par an depuis 1993, en juin à l'International Supercomputing Conference, née en même temps que le Top500 à l'Université de Mannheim en Allemagne, et en novembre à la ACM/IEE supercomputing conference, l'ACM étant la vénérable Association for Computing Machinery, fondée en 1947, et l'IEE l'Institute of Electrical and Electronics Ingeneers, toutes ces institutions étant, il faut le noter, sans but lucratif.

Le premier ordinateur à surpasser le téraflops (souvenons-nous, mille milliards de flops) en 1997 s'appelle ASCI Red, du nom du programme du gouvernement américain Advanced Strategic Computer Initiative, which you don't really want to know too much about, et Red, well, parce qu'il est rouge. La technologie était fournie par Intel Corp.

Comme dans les jeux vidéo, aussitôt franchie la barre du téraflops les ingénieurs se lancèrent à l'assaut du niveau supérieur, qui porte même un nom, celui de petascale, c'est à dire capable d'une performance supérieure à un pétaflops, c'est à dire encore un million de milliards de flops.

And the winner is : Roadrunner, d'IBM, en 2008. Le Jaguar, de Cray, a passé le petaflops la même année en seconde position, ce qui prouve que les ingénieurs n'y connaissent rien en éthologie, car le guépard est bien plus rapide que le jaguar, mais il s'appelle cheetah en anglais, ce qui prête à confusion, enfn bref, le voici, et il est beaucoup plus photogénique que le Roadrunner.

Cray a dominé le Top500 dans les années 90, avant de laisser la prééminence à IBM dans les années 2000, avec Deep Blue, célèbre pour sa partie d'échec avec Gary Kasparov, et la génération des Blue Gene. Roadrunner est aussi un ordinateur IBM, il aligne 12.690 processeurs et coûte 133 millions de dollars.

Aux dernières nouvelles, qui datent de novembre 2012, Cray a repris la main avec le Titan du Oak Ridge National Laboratory, mesuré à 17,59 pétaflops. Son système d'exploitation est Linux. Il fait de la recherche nucléaire.


A l'occasion du 20ème anniversaire du Top500, le site éponyme top500.org a publié un diaporama présentant tous les N°1 depuis la création du classement :


TOP500 - 20th Anniversary from top500

Les données du Top500 montrent que la progression en puissance des supercalculateurs suit un tracé qui rappelle la loi de Moore ; en fait, elle est plus rapide. L'échelle de gauche est en gigaflops. En rouge la performance du premier du classement, en jaune celle du dernier du classement (n°500) et en bleu la performance additionnée des 500 classés.



Tout ceci est bel et bon, mais on s'est rendu compte que plus on multiplie les processeurs, plus ça bouffe de l'électricité, et plus ça chauffe. C'est une des raisons pour lesquelles les supercalculateurs ne se miniaturisent pas mais au contraire prennent de plus en plus de place. Les circuits de refroidissements par eau ou par air sont l'un des principaux casse-tête des ingénieurs.

Autrefois la fierté des universités scientifiques, ces monstres ne peuvent plus être utilisés que par des laboratoires gouvernementaux parce qu'ils coûtent des millions de dollars par an en électricité. Il existe d'ailleurs un classement en fonction de la performance énergétique, en gigaflops par watt, qui s'appelle Green500, dans lequel IBM se défend aussi très bien.
Le Oak Ridge National Laboratory est installé dans le Tennessee à cause du faible coût de l'électricité dans la région. Le Beacon, qui a remporté cette année le Green500, se trouve également à l'Université du Tennessee.

De plus, pour atteindre le prochain niveau qui est l'exascale, si vous m'avez suivie, les ingénieurs s'accordent à penser qu'il faudra d'une part repenser en grande partie les systèmes d'exploitation actuels, mais aussi améliorer drastiquement la performance énergétique, faute de quoi ils voient se profiler le bout de la belle courbe ascendante de la loi de Moore, aussi appelé le Mur. C'est pour ça qu'on dit : "aller dans le mur" (non je plaisante).

Mais pendant ce temps, avec les progrès techniques dans le domaine des réseaux informatiques, les chercheurs fauchés se sont vite rendu compte qu'ils pouvaient aligner un certain nombre de PC tout à fait ordinaires et obtenir des performances très honorables pour une fraction du prix d'un supercomputer. L'objet qui en résulte est en général assez moche et a reçu le nom de Beowulf à la NASA en 1994. Ici le Beowulf de l'Université MacGill de Toronto, qui étudie les pulsars. Cette technique s'appelle cluster computing.

Avec le développement d'internet, l'idée est apparue de former des structures entièrement virtuelles en mettant en réseau de nombreux ordinateurs qui n'avaient plus à se trouver au même endroit, c'est le grid computing.

De là naturellement a découlé l'initiative de mettre à profit la puissance inutilisée du PC de tout un chacun, où qu'il se trouve, ou même des consoles de jeux et des smartphones. Cette forme d'informatique collaborative, ou bénévole, volunteer computing en anglais, a pris son essor dans les années 90, et trouve aujourd'hui sa principale réalisation dans le Berkeley Open Infrastructure for Network Computing, fondé en 2002 à l'Université de Californie du même nom (Berkeley), dont l'acronyme délicieux est BOINC.

Or la puissance totale de BOINC annoncée par lui-même au 24 décembre 2012 était de 7279 pétaflops, c'est-à-dire plus de 7 exaflops, si je ne m'abuse. Bien sûr le réseau n'est pas dédié à une seule tâche puisqu'il a des millions d'utilisateurs pour 49 projets en activité ouverts au grand public à l'instant où je vous écris. Mais enfin il est rassurant de savoir que nous avons déjà un BOINC dans l'exascale, au cas où il faudrait donner un grand coup de collier pour résoudre un gros problème urgent...

Vous aussi vous pouvez prêter votre laptop pour aider à faire des calculs hyper-longs et compliqués pour faire progresser la science ! Les projets en cours incluent par exemple la lutte contre le paludisme, l'exploration de la voie lactée, ou le déchiffrage de deux messages codés avec Enigma en 1942. N'est-ce pas fascinant ?

Il n'y a pas que les (relativement) fauchés qui ont opté pour cette solution. Le CERN, home sweet home du Grand Accélérateur de Hadrons, a des besoins conséquents en informatique, vu qu'il a pas mal de données à analyser : les détecteurs de particules balancent 100 térabytes de données par seconde à l'ordinateur chargé de les trier et de ne garder que cent événements par seconde, ce qui fait encore beaucoup : environ 300.000 milliards de collisions entre protons analysées depuis son démarrage, ou 300 téracollisions, si vous préférez...

Le CERN a mis en réseau quelques PC sur place, comme on le voit sur la photo, pour opérer le premier tri, les données étant ensuite analysées par le Worldwide LHC Computing Grid, WLCG*, ou pour les intimes : The Grid, le plus grand réseau du monde dédié à un projet unique.
Pas donné non plus remarquez : lors de son inauguration en 2008 le CERN annonçait que le Grid avait coûté 500 millions d'euros en développement, et prévoyait 14 millions par an de frais de maintenance...

And, guess what ? The Grid utilise en partie les ressources des volontaires de BOINC. On peut donc (presque) traquer les bosons de Higgs depuis chez soi ! En tous cas on peut participer à cette vaste entreprise. Ca s'appelle LHC@home.
Come on people ! Il n'y a pas qu'un boson de Higgs, il y en a plusieurs ! Mark my words !

Conclusion, les superordinateurs c'est pas mal mais un peu surfait, les gigaflops c'est utile quand on a des particules subatomiques à identifier ou des génomes à séquencer, mais avouons-le c'est pas donné à tout le monde tous les jours, en règle générale on a toujours beaucoup plus de flops chez soi que ce dont on a vraiment besoin, MAIS on peut en faire cadeau à la science, et ça c'est cool !

Enfin, si vous voulez savoir combien de gigaflops fait votre ordinateur ou tout au moins celui sur lequel vous êtes en train de lire ces lignes fascinantes, vous pouvez regarder sur http://whohasthefastestcomputer.com/flopsmeter/, sans inscription ni téléchargement ni obligation d'achat. Médor II mon nouveau laptop est à 15,80, modeste mais encore environ le double de la moyenne des ordinateurs reçus pour Noël par les particuliers, d'après le site.


P.S. : La première photo en haut n'est pas seulement un tas de détritus pour faire rire, c'est un "supercomputer" construit par un étudiant en 2007 pour 1256 dollars et baptisé Microwulf, en référence à Beowulf évidemment.

Mise à jour 18 juin 2013 : la performance a presque doublé depuis novembre dernier : le nouveau champion des super-ordinateurs est chinois, avec 33,86 petaflops ; il s'appelle Tianhe-2. http://www.leparisien.fr/high-tech/un-super-ordinateur-chinois-n-1-mondial-18-06-2013-2907233.php


* Un acronyme à l'intérieur d'un autre acronyme, hooo !

Sources :

Wikipédia
http://www.ohgizmo.com/2007/09/03/1256-microwulf-supercomputer-smaller-than-bread-box-runs-at-2625-gigaflops/
http://www.zdnet.fr/actualites/la-barre-mythique-du-petaflop-depassee-39601782.htm
http://royal.pingdom.com/2009/06/11/10-of-the-coolest-and-most-powerful-supercomputers-of-all-time/
http://www.extremetech.com : Exascale supercomputer hardware is easy ; it's the software that's holding us back
http://www.msnbc.msn.com : Next generation supercomputers have huge energy cost.
http://www.swissinfo.ch : Le_CERN_inaugure_son_superordinateur_planetaire.
Aidez les physiciens du CERN à traquer le boson de Higgs. LeTemps.ch

samedi 16 juillet 2011

Un si long voyage

Les plus vieux d'entre vous se souviennent de l'enthousiasme de Carl Sagan lorsqu'il fut chargé de concevoir le message de la planète Terre à destination de l'espace.
Les sondes Voyager I et II furent lancées en 1977, à la suite de Pioneer 10 et 11 qui servaient de précurseurs.
C'est à bord des Pioneer que se trouvait la fameuse image des humains à loilpé saluant amicalement de la main. Les Etazuniens, fidèles à eux-même, se plaignirent tellement à la NASA de l'"obscénité" de cette image qu'elle fut supprimée du Voyager Golden Record. Pourquoi ne pas représenter les humains habillés, comme on les voit habituellement ? C'est une chose que je me suis toujours demandée.

Contrairement au message de Pioneer qui était une simple image gravée sur une plaque, le Golden Record est, comme son nom l'indique, un disque. Un micro-sillons, puisque nous sommes en 1977, remember ? Mais un vidéo-disque, quand même. Sur le couvercle du disque sont gravées des données censées permettre à n'importe quel extra-terrestre un peu dégourdi de le lire.
En admettant que ce soit le cas, notre ami E.T. pourra découvrir des images de la terre et des humains, des salutations en 45 langues, des extraits de musiques des cinq continents parmi lesquels Mozart, Beethoven, Bach, Stravinsky, Louis Armstrong et... Chuck Berry. L'année 1977 fait que les deux seuls bipèdes autorisés à faire un discours à l'univers sont Jimmy Carter et ce vieux facho de Kurt Waldheim, qui était secrétaire général des Nations Unies. On a les messages qu'on mérite, finalement.

Pour en savoir plus, Sagan et ses collaborateurs ont publié en 1978 un livre intitulé Murmurs of Earth : the Voyager Interstellar Record, réédité en 1992 avec un CD réplique du Golden Record.

Et alors, me direz-vous, que sont devenus tous ces charmants colifichets, et pourquoi en faire un fromage, presque 35 ans plus tard ? Parce qu'ils vont très bien, justement, et que l'on sait exactement où ils se trouvent.
En effet le programme Voyager a réfuté de façon éclatante la loi de Murphy, qui est pourtant une invention d'ingénieurs : il est allé beaucoup mieux et beaucoup plus loin que ce que ses concepteurs avaient pu imaginer.

Dans les années 60 les chercheurs du Jet Propulsion Laboratory de Pasadena se demandaient comment rendre visite aux planètes les plus éloignées du système solaire, qui sont très loin et très peu ensoleillées.
Ils eurent deux idées brillantes : d'abord remplacer les panneaux solaires, qui auraient été plutôt mous du genou à cette distance du soleil, par des générateurs thermoélectriques à radioisotope. Ces générateurs contiennent du plutonium 238 dont la décroissance radio-active produit de la chaleur qui est transformée en électricité pour alimenter les divers appareils, notamment les ordinateurs !

Chaque sonde embarque six ordinateurs et leur capacité totale est de 512KB, how sweet.


Visez un peu le look de l'ordinateur de 1977 et ensuite imaginez (ou lisez plus bas) ce qu'il a fait. Ce sont peut-être les kilobits les mieux employés de l'histoire de l'humanité...

La deuxième idée brillante est l'assistance gravitationnelle, qui consiste à emprunter l'orbite des planètes pour accélérer les sondes, un peu comme Tarzan se ballade de liane en liane, si vous me permettez cette image simpliste.
C'est Jupiter, dont la force gravitationnelle est énorme, qui doit servir de lance-pierre pour propulser les sondes to the outer space.

Gary Flando, qui sera peut-être un jour aussi célèbre que Christophe Colomb, élabore une trajectoire qui utilise un alignement exceptionnel de planètes, lequel doit se produire entre 1976 et 1978. Il fallait donc se dépêcher.

Un vaste programme baptisé Outer Planets Grand Tour Project est mis sur pied en 1969 et son budget est estimé à 700 millions de dollars. Aussitôt les plans terminés, arrivent le premier choc pétrolier et la récession économique. On demande au JPL de calmer ses ardeurs et de faire ce qu'il peut avec 250 millions. L'espérance de vie des sondes est ramenée de 10 ans à 4 ans !


Pourtant les chercheurs et ingénieurs du JPL conçoivent et construisent entre 1972 et 1977 deux sondes presque aussi ambitieuses que celles du programme de départ, et surtout très costauds, puisqu'elles voyagent encore. Voyager 2 fut lancée le 20 août 1977 et sa copine Voyager 1 le 5 septembre. Leur trajectoire est d'une précision invraisemblable : la variation maximum est de 20 kilomètres par rapport à la trajectoire calculée, alors que la marge d'erreur prévue était de 200 kilomètres...

Mais bref, un aussi long voyage et nous ne sommes pas encore partis :
so let's go !

Voyager 1 arrive à proximité de Jupiter en mars 79, Voyager 2 en juillet de la même année. C'est à elles que l'on doit les fameuses photos en couleurs réelles de Jupiter.

Jupiter est 1320 fois plus grosse que la terre mais quatre fois moins dense. Son atmosphère extérieure est principalement composée d'hydrogène. En se rapprochant du centre de la planète, sous l'effet de la chaleur et de la pression, le gaz se transforme en hydrogène liquide, puis en hydrogène "métallique", lorsque les atomes d'hydrogène s'ionisent et forment un matériau conducteur. Les avis sont partagés sur le point de savoir s'il existe ou non un noyau dur.

Dans l'ensemble, les conditions ne sont pas top pour passer des vacances.


Mais ce sont surtout les satellites de Jupiter qui révèlent leurs secrets. Les sondes Voyager ont photographié de (relativement) près les quatre plus grands satellites naturels de Jupiter.


Io et Europe sont d'une taille similaire à celle de la lune. Sur Io, l'activité volcanique est intense. Les volcans crachent à plus de 300 km de hauteur des panaches de composés du soufre. Les jolies couleurs rouge, jaune, vert viennent du soufre et du dioxyde de soufre, ce qui n'est pas non plus idéal pour faire du camping.

Le cratère de Valhalla sur Callisto
Ganymède, un peu plus gros que Mercure, est tout gelé. Europe et Callisto aussi sont gelées, mais on pense que des océans se trouvent à une centaine de kilomètres sous la surface.

De plus, l'atmosphère de Callisto contiendrait du dioxyde de carbone et de l'oxygène, ce qui nous rappelle la maison.
Ainsi, bien que la température ne dépasse pas -150°, Wikipédia déclare sobrement que "Callisto a pendant longtemps été considérée comme le corps le plus adapté à l'installation d'une base humaine pour l'exploration du système jovien". Ce qui laisserait penser qu'elle ne l'est plus, considérée, mais enfin en cas d'Armageddon ça reste la destination à privilégier à mon avis.

De Jupiter à Saturne ce n'est qu'un saut de puce de 22 mois : Voyager 1 s'en approche le 10 novembre 1980 et Voyager 2 le 26 août 1981.

Saturne, la plus belle. 760 fois plus grosse que la terre, sa structure à base d'hydrogène serait comparable à celle de Jupiter. On y voit des nuages d'altitude composés de cristaux d'ammoniac.
Ses anneaux sont composés de glace et de poussière.

On lui a aussi trouvé une soixantaine de satellites, ce qui demande une connaissance approfondie de la mythologie grecque.
La plupart ne sont que des gros morceaux de caillou gelés, comme Hypérion, Janus, Prométhée, Lapetus, Mimas, Thétys, Encelade, Dioné, et même Hélène, divinisée pour l'occasion.

On n'y a trouvé aucun perroquet sonnant l'alarme.*


Mais c'est surtout Titan, le plus gros satellite de Saturne, qui excitait les astronomes. L'un des rares corps célestes à posséder une atmosphère, certes à base de méthane, et un effet de serre, on y trouve des saisons, du vent, et des pluies de méthane. Titan a donc l'avantage d'avoir un climat, mais malheureusement ce dernier est mauvais. Voyager 1 s'approcha à moins de 7000 kilomètres de Titan, pour constater qu'un épais brouillard empêchait de voir la surface. En plus la température ne dépasse pas -180°C, ce qui est un peu frisquet. Malgré tout, les observations ultérieures de la sonde Cassini et du télescope Hubble ont permis de détecter la présence d'hydrocarbures et autres composés organiques complexes qui en font un environnement dit prébiotique.

A la sortie du système de Saturne, si j'ose dire, les deux sondes se séparent amicalement. Voyager 2 utilise l'assistance gravitationnelle de Saturne pour gagner Uranus, tandis que Voyager 1 se dirige directement vers la sortie, du système solaire cette fois.

Uranus est aussi une géante gazeuse, au diamètre de 51300 km. Voyager 2 est la première sonde à la survoler en janvier 1986, et photographie ses anneaux, qui sont fins et peu lumineux, ce qui les rend invisibles sur des photos aux couleurs naturelles.

A vrai dire Uranus n'est pas très photogénique. Le méthane dans l'atmosphère lui donne sa couleur bleuâtre.


Miranda
Voyager a découvert 10 nouveaux satellites d'Uranus, en plus des cinq déjà connus.  Les plus importants sont Titania, Obéron, Ariel, Umbriel et Miranda, les astronomes (Herschel, en l'occurrence) ayant laissé tomber la mythologie pour attaquer les oeuvres de Shakespeare.

En réalité, Voyager 2 a découvert 11 satellites, le onzième, Perdita la bien nommée, n'ayant été identifiée qu'en 1996, en regardant mieux les photos envoyées par la sonde !

Miranda, à la surface curieusement escarpée, fut la plus photographiée par Voyager 2.

Mais Voyager 2 n'a pas dit son dernier mot. Elle se dirige vaillamment vers Neptune. A ce stade les ondes radio commencent à faiblir. Pendant les trois années que dure le voyage entre Uranus et Neptune, les responsables du projet s'occupent d'agrandir les antennes existantes, et d'obtenir le concours du Very Large Array au Nouveau Mexique.

Le 25 août 1989 Voyager 2 est le premier et jusqu'à présent le seul engin à survoler Neptune, à une distance de 29000 km. Elle analyse l'atmosphère, y découvre des nuages et des vents qui soufflent à 2000 km/heure.

Neptune est aussi bleue que Jupiter est rouge. Et même plus. A vrai dire, l'origine de cette couleur bleue, plus soutenue que celle du méthane, reste inconnue. Elle a comme Jupiter une grosse tache, sauf que celle de Neptune a disparu depuis. Il s'agit d'une grosse tempête, de la taille de la Terre.

Voyager a confirmé l'existence de cinq anneaux peu visibles et découvert dix nouvelles lunes de petite taille, qui porte des noms de divinités marines, comme il sied à Neptune.

Distante de la Terre de 4521,58 millions de km, Neptune est la seule planète du système solaire qui n'est jamais visible à l'oeil nu. Malgré cette distance qu'un Argentin n'hésiterait pas à qualifier de phénoménale, la sonde Voyager 2 répondait toujours parfaitement aux commandes depuis la terre.

Une trajectoire fut choisie pour permettre à la sonde d'utiliser l'assistance gravitationnelle de Neptune afin de se rapprocher de son principal satellite, Triton.

Triton est de loin le plus gros des 13 satellites naturels de la planète Neptune, et le 7ème par distance croissante à cette dernière. C'est le seul gros satellite connu du système solaire orbitant dans le sens rétrograde, c'est-à-dire inverse au sens de rotation de sa planète. Cette caractéristique orbitale exclut que Triton ait pu se former initialement autour de Neptune, et sa composition similaire à celle de Pluton suggère qu'il s'agirait en réalité d'un objet issu de la ceinture de Kuiper capturé par Neptune.

Voyager 2 a observé en détails 40% de la surface de Triton, révélant des traces d'activité volcanique relativement récente, et de geysers, le tout super-glacé puisque la température est de -235°.

Ayant quitté Triton en pleine forme, Voyager 2 entame à la suite de Voyager 1 ce que les astronomes appellent avec optimisme la mission interstellaire.
So what's next ?
Le choc terminal.
Tatzan !
Oui ça s'appelle vraiment comme ça.  C'est très simple. Le soleil darde ses rayons et jette autour de lui des quantités de particules. Cette projection forme une sorte de souffle dit vent solaire qui repousse jusqu'à une certaine distance les particules venues du reste de l'univers.

Cette zone d'influence du soleil, pour ainsi dire, s'appelle l'héliosphère.

Le choc terminal est le point de l'héliosphère où la vitesse du vent solaire diminue en deçà de la vitesse du son (par rapport à l'étoile et dans le milieu interstellaire) à cause de l'interaction avec le milieu interstellaire. Ceci entraîne une compression, un réchauffement et un changement dans le champ magnétique.
Pour le système solaire, le choc terminal est évalué à une distance de 75 à 90 unités astronomiques du Soleil.
Respectivement en 2004 et 2007, Voyager 1 et 2 ont passé le choc terminal. En fait, elles auraient passé plusieurs fois le choc terminal puisque les frontières de ce dernier varient selon l'activité solaire.
Mais revenons à l'héliosphère. Elle est de forme allongée parce que le soleil se déplace.


Or, par un coup de bol absolu (et c'est là que la loi de Murphy a fait défaut, son influence diminuant peut-être avec la distance) les sondes Voyager sont parties dans la direction du "nez" de l'héliosphère, du côté où la distance avec la limite de l'héliosphère, dite héliopause, est la plus courte, ou plutôt la moins longue. Ceci n'était pas volontaire, puisqu'à l'époque où les trajectoires ont été calculées, on ignorait la forme et la direction de l'héliosphère.

Aujourd'hui les indomptables petites sondes (garanties quatre ans !) voyagent à la vitesse de 17 km/seconde dans l'héliogaine, heliosheath sur l'image, zone ou les particules solaires rencontrent les particules from outer space et les champs magnétiques se mettent à danser la java, presque littéralement.

Les sondes ne prennent plus de photos mais continuent de transmettre des données. Le 7 mars 2011, Voyager 1 a effectué une manoeuvre, la première depuis 21 ans, pour pouvoir mieux transmettre ses données vers la terre. Ce sont plutôt les terriens qui ont du mal à les interpréter. Les dernières nouvelles datent de juin 2011 et ont parcouru plus de 14 milliards de kilomètres. Elles évoquent des grosses bulles magnétiques de 160 millions de km de largeur, entièrement détachées du champ magnétique solaire. A ce stade, non seulement mes sherpas refusent de me suivre mais je renonce à décrire la situation, pour laisser la parole à la NASA, dans cette vidéo brillante qui pourrait s'appeler : les confins du système solaire pour les nuls.



Et après ? Une fois franchi le bouclier magnétique du soleil, c'est rumbo al infinito, comme disait Mafalda.
La NASA espère obtenir des informations sur la nature du plasma interstellaire, hors de l'influence du soleil.

Le prochain point d'intérêt dans le panorama devrait être AC + 79 3888, étoile mineure de la constellation de la girafe,
dans 40.000 ans...

Bon voyage, Voyager !


Sources
Wikipédia
http://news.discovery.com/tech/top-5-explorer-spacecrafts.html
http://science.nasa.gov/science-news/science-at-nasa/2011/09jun_bigsurprise/
http://www.lemonde.fr/planete/article/2011/06/09/des-bulles-magnetiques-aux-confins-du-systeme-solaire_1534279_3244.html

* "Sur une lune de Saturne un perroquet sonne l'alarme". Pardon pour cette allusion cryptique. Ce n'est peut-être pas par hasard que la chanson de Capdevielle date aussi de 1980.

dimanche 24 avril 2011

Hyperlexia


Devant la porte de la maison de mes parents, il y avait des rosiers. L'un d'entre eux avait conservé attachée à son pied une petite étiquette avec son nom.

Pendant dix ans, je ne suis jamais passée devant ce rosier sans m'arrêter pour lire cette étiquette, machinalement. Je calcule que je l'ai lue à vue de nez 10.000 fois, ce qui est beaucoup pour un document transmettant une information somme toute dispensable.

J'ai rencontré depuis d'autres lecteurs compulsifs qui, comme moi, ne peuvent voir quelque chose d'écrit sans le lire. A vrai dire, pendant longtemps je n'avais pas réfléchi à la question. Tant qu'on n'a pas rencontré des gens différents, on se croit évidemment normal, et j'ignorais donc qu'il existât des personnes en grand nombre qui peuvent passer devant une affiche couverte d'un long baratin en gardant nonchalamment les yeux fixés sur la ligne bleue des Vosges.

La curiosité étant mère de tous les vices parmi lesquels Google, je constatai que la "lecture compulsive" est considérée par google.fr comme une métaphore pour lire d'une traite un livre, ou les oeuvres d'un auteur, ou un genre littéraire, par exemple, lecture compulsive d'Oran Pahmuk, ou de romans à sensations, ou de bandes dessinées, etc. Rien de neurologique là-dedans. On trouve des lecteurs compulsifs auto-proclamés de la presse quotidienne, de modes d'emploi, de notices nécrologiques, de publicités pour les machines à laver le linge, et même de Voici, mais tout ceci bien que fort intéressant m'éloigne de mon sujet. 

Les Etats-Unis, qui sont plus prompts à tout médicaliser, nous parlent tout de suite de "obsessive-compulsive disorder", en français trouble obsessionnel compulsif, plus connu sous le nom de TOC.
Il existe un "obsessive Bible reading", mais cela fait partie des symptômes de la paranoïa, avec entendre les voix des anges, parler avec Dieu, voire se prendre pour Dieu, et, Darwin bless me, je ne me sens pas du tout concernée.

Enfin on trouve assez rapidement que la Faculté se penche depuis quelques années sur un phénomène de lecture compulsive chez les jeunes enfants, qui porte le joli nom d'hyperlexia, et qui mérite même une définition dans Wikipédia (en anglais).

L'hyperlexie, donc, mot utilisé dans certains articles bien qu'il ne soit pas dans le dictionnaire, est un syndrome dont les contours sont flous et empiètent sur ceux du syndrome d'Asperger, et de l'"autisme de haut niveau", traduction de "high functionning autism".

Tout cela repose sur l'hypothèse séduisante de l'existence d'un "spectre de l'autisme", non pas au sens de "fantôme", mais d'"échelle", par analogie avec le spectre de la lumière. Pour faire simple, disons que l'on peut être plus ou moins autiste, et qu'une personnalité peut présenter des traits autistiques sans pour autant passer ses journées à se taper la tête contre les murs.

Mais bref, il apparaît que certains enfants reconnaissent des mots avant l'âge de deux ans, et apprennent à  lire tout seuls avant trois ans.
En fait, ça se complique quand on s'aperçoit que ces enfants lisent tout ce qui est écrit mais ne comprennent pas le sens des textes. 

C'est comme si une capacité de décodage hypertrophiée les empêchait d'accéder au signifié. Comme chacun sait, le lien entre signifiant et signifié est arbitraire (Saussure aurait adoré ces recherches). Il n'est pas non plus automatique. Une image qui peut aider à éclairer mon propos : lorsque vous résolvez un sudoku, vous ne vous préoccupez pas de ce que ce dernier a à vous dire...

A ce titre, l'hyperlexie pourrait être le contraire de la dyslexie : les capacités de compréhension des dyslexiques sont parfaitement normales, mais ils ont des difficultés pour déchiffrer.

Les hyperlexiques apprennent à parler tard et difficilement, leur vocabulaire est pauvre et leur syntaxe rudimentaire. Ils mélangent les pronoms, ce qui fait partie des marqueurs de l'autisme, et sont souvent écholaliques. Si les capacités de communication s'améliorent en général à partir de quatre ou cinq ans, leurs "social skills" restent en général lamentables.

A l'école, bien que les méthodes scolaires soient plutôt inadaptées à leurs capacités d'apprentissage purement visuelles, ils sont d'une intense curiosité et peuvent manifester une attention et une mémoire remarquables pour des sujets sur lesquels ils focalisent. Comme les surdoués, ils peuvent passer pour des élèves brillants mais ingérables. Tout cela se tasse en général avec l'âge.

Au cas où par hasard vous vous posiez la question, bien que je trouve tout cela fascinant, je ne me sens pas (pour une fois) visée personnellement. Si j'étais une lectrice précoce, je me flatte d'avoir toujours à peu près compris ce que je lisais, et de continuer à le faire. Je suis même plutôt rassurée, car il n'y a rien dans l'encyclopédie des publications médicales sur la lecture compulsive des étiquettes de rosier, des boîtes de corn flakes et des plaques d'égout...


Sources : 

- University of Wisconsin
Hyperlexia: Reading Precociousness or Savant Skill?
J Autism Dev Disord. 2007 Apr;37(4):760-74.
Hyperlexia in children with autism spectrum disorders.

Source

PACE Center, New Haven, CT 06511, USA.
Cortex. 2010 Nov-Dec;46(10):1238-47. Epub 2010 Jul 8.
Developmental dissociations between lexical reading and comprehension: evidence from two cases of hyperlexia.

Source

Macquarie Centre for Cognitive Science, Macquarie University, Sydney, NSW, Australia. acastles@maccs.mq.edu.au

mardi 5 avril 2011

On nous cache tout, on nous dit rien


Le 27 mars 2011, à Anaheim, devant la 241ème assemblée générale de l'American Chemical Society, le Dr Daniel Nocera, Ph.D., a annoncé la création d'une feuille artificielle, dix fois plus efficace que la photosynthèse naturelle, à partir de matériaux stables et pas trop chers.

Il a expliqué en gros que l'engin, à base de silicone, nickel et cobalt, est de la taille d'une carte à jouer. Plongé dans deux litres d'eau, même sale, et placé au soleil, il sépare l'oxygène de l'hydrogène. Une "power station" domestique génère de l'électricité en les recombinant, et produit... de l'eau (propre).


WTF ? Me direz-vous. C'est exactement ce que je pensai in petto, et entrepris aussitôt quelques net-recherches.

D'abord, ce Daniel Nocera n'est pas un plaisantin a priori, il est chercheur au MIT. Ensuite, son équipe de recherche a reçu 6,5 millions de dollars depuis 2007 pour ce projet, et la société Sun Catalytics a signé en novembre 2010, principalement avec le groupe indien Tata, un accord de 9,5 millions de dollars pour développer un prototype. Or, comme chacun sait, s'il y a une chose qui ne rigole pas, c'est l'argent.

Le délai espéré pour le prototype est d'un an et demi.
Ceci m'inspire deux réflexions :
1° Où peut-on acheter une mine de cobalt ? (non je plaisante)
2° Nous saurons pour Noël 2012 si cette conférence a constitué de loin la nouvelle la plus importante de l'année.

En attendant, j'ai examiné les 111.000 résultats de Google pour "Daniel Nocera" (enfin, j'ai examiné les 83 premières pages, ce qui n'est déjà pas mal). A ma grande surprise, j'ai constaté que les articles sur le sujet dans la presse généraliste internationale étaient au nombre de zéro. Que le nombre d'articles dans la presse scientifique/technologique grand public s'élevait à un : Wired.

Les articles fourmillent sur des blogs privés, et des sites du genre treehugger, freak-science, crazyengineers, coolgadgets, greenoptimistics, et bien entendu, geek.com...
Les commentaires parlent de dramatic discovery, ground-breaking, paradigm-shifting, holy Grail of science...
A la page 23, je trouve enfin une dépêche de Reuters, reprise de Yale. C'est bien  la seule dépêche d'agence que je connaisse qui n'ait jamais été reprise par aucun titre de presse. A la page 83, j'ai trouvé un court article de Voice of America. Ca c'est mainstream. Malheureusement, le fait qu'il soit daté du 1er avril risque de nuire à sa crédibilité ...

Je ne sais comment interpréter le silence retentissant d'entreprises de presse qu'un reste d'innocence me fait encore tenir en haute estime, telles que Scientific American ou The New York Times.

Trois hypothèses viennent à l'esprit. :
- Hypothèse basse : Nocera est un imposteur et sa mythomanie est un secret de polichinelle dans la profession. Il n'y a que les geeks, les bloggers du dimanche ignares et les Indiens pour tomber dans ce panneau (solaire).

- Hypothèse tout aussi basse : La découverte de Nocera va changer le monde et les journalistes qui sont notoirement ignorants ne s'en aperçoivent même pas / qui sont notoirement condescendants pensent que le bon peuple n'a pas besoin de le savoir (et ils s'achètent des mines de cobalt).

- Théorie de la conspiration : le complexe militaro-industriel et Big Oil ont déjà commencé à étouffer l'affaire et Nocera peut numéroter ses abattis.

Aucune de ces explications ne me satisfait vraiment, et la vérité est probablement quelque part au milieu.
Mais quand même, moi ça m'interpelle quelque part qu'on me parle pas des trucs intéressants, pas vous ? Or is it a geek thing ??

Addendum : quelques lecteurs attentifs et attentionnés me demandent judicieusement comment j'ai appris cette nouvelle, si on me cache tout.
Bonne question : c'est en lisant le dernier roman de Ian McEwan, Solar, que j'ai trouvé pas terrible d'ailleurs. Dans ce roman le répugnant et quasi-houellebecquien anti-héros est un prix Nobel de physique qui cherche à développer la photosynthèse artificielle.
Maintenant que j'y pense, c'est comme si Houellebecq avait cherché à faire du John Irving, ou l'inverse...
Bref, peut-être en proie à une vague frustration intellectuelle après avoir terminé ce bouquin, j'ai eu l'idée de demander à Google l'état de la recherche sur la question.
Evidemment, quand on cherche on trouve très facilement.
Mais, c'est toujours pareil, encore faut-il savoir quoi chercher...

Sources
Debut of the first practical “artificial leaf”
http://www.reuters.com/article/2011/03/29/idUS81168260920110329
http://www.wired.co.uk/news/archive/2011-03/28/artificial-leaf
http://www.voanews.com/english/news/environment/Artificial-Leaf-Turns-Sunlight-into-Electric-Power-119070894.html
http://www.livemint.com/2011/03/23001656/Tata-signs-up-MIT-energy-guru.html
http://www.suncatalytix.com/Sun_Catalytix_Series_B_Press_Release.pdf