mardi 30 juin 2009

Une cellule photovoltaïque polymère au rendement quasi parfait

Le rendement est quasi parfait pour ce type de cellule : presque chaque photon absorbé est converti en une paire de porteurs de charge électrique et chacune de ces paires se retrouve aux électrodes. Le rendement global d’une telle cellule est de 6 %, ce qui signifie que 6 % de l’énergie absorbée est convertie en électricité. Le chiffre peut sembler dérisoire, mais le rendement global des cellules photovoltaïques polymères précédentes n’a jamais dépassé 5 %. Le résultat est donc plus qu’encourageant, car il permet d’envisager une application commerciale efficace et rentable.

Ce type de cellule est, de plus, bien moins cher à produire et plus léger que les panneaux photovoltaïques classiques comme ceux utilisant du silicium. Autre avantage : elles sont bien plus souples d’utilisation car... souples, justement. Faites de « copolymère », un polymère contenant deux chaînes de polymères alternées, elles relâchent des électrons lorsqu’elles sont atteintes par la lumière du Soleil. Avec certaines lumières vertes, l’efficacité peut atteindre 17 %. Ces résultats suggèrent que ce type de technologie, plus poussé, pourrait un jour atteindre les 10 ou 15 % de rendement.

Source : Yahoo et RTFlash

lundi 29 juin 2009

Scientists create first electronic quantum processor

A team led by Yale University researchers has created the first rudimentary solid-state quantum processor, taking another step toward the ultimate dream of building a quantum computer.

They also used the two-qubit superconducting chip to successfully run elementary algorithms, such as a simple search, demonstrating quantum information processing with a solid-state device for the first time. Their findings will appear in Nature's advanced online publication June 28.

"Our processor can perform only a few very simple quantum tasks, which have been demonstrated before with single nuclei, atoms and photons," said Robert Schoelkopf, the William A. Norton Professor of Applied Physics & Physics at Yale. "But this is the first time they've been possible in an all-electronic device that looks and feels much more like a regular microprocessor."

Working with a group of theoretical physicists led by Steven Girvin, the Eugene Higgins Professor of Physics & Applied Physics, the team manufactured two artificial atoms, or qubits ("quantum bits"). While each qubit is actually made up of a billion aluminum atoms, it acts like a single atom that can occupy two different energy states. These states are akin to the "1" and "0" or "on" and "off" states of regular bits employed by conventional computers. Because of the counterintuitive laws of quantum mechanics, however, scientists can effectively place qubits in a "superposition" of multiple states at the same time, allowing for greater information storage and processing power.

For example, imagine having four phone numbers, including one for a friend, but not knowing which number belonged to that friend. You would typically have to try two to three numbers before you dialed the right one. A quantum processor, on the other hand, can find the right number in only one try.

"Instead of having to place a phone call to one number, then another number, you use quantum mechanics to speed up the process," Schoelkopf said. "It's like being able to place one phone call that simultaneously tests all four numbers, but only goes through to the right one."

These sorts of computations, though simple, have not been possible using solid-state qubits until now in part because scientists could not get the qubits to last long enough. While the first qubits of a decade ago were able to maintain specific quantum states for about a nanosecond, Schoelkopf and his team are now able to maintain theirs for a microsecond -- a thousand times longer, which is enough to run the simple algorithms. To perform their operations, the qubits communicate with one another using a "quantum bus" -- photons that transmit information through wires connecting the qubits?previously developed by the Yale group.

The key that made the two-qubit processor possible was getting the qubits to switch "on" and "off" abruptly, so that they exchanged information quickly and only when the researchers wanted them to, said Leonardo DiCarlo, a postdoctoral associate in applied physics at Yale's School of Engineering & Applied Science and lead author of the paper.

Next, the team will work to increase the amount of time the qubits maintain their quantum states so they can run more complex algorithms. They will also work to connect more qubits to the quantum bus. The processing power increases exponentially with each qubit added, Schoelkopf said, so the potential for more advanced quantum computing is enormous. But he cautions it will still be some time before quantum computers are being used to solve complex problems.

"We're still far away from building a practical quantum computer, but this is a major step forward."

Authors of the paper include Leonardo DiCarlo, Jerry M. Chow, Lev S. Bishop, Blake Johnson, David Schuster, Luigi Frunzio, Steven Girvin and Robert Schoelkopf (all of Yale University), Jay M. Gambetta (University of Waterloo), Johannes Majer (Atominstitut der Österreichischen Universitäten) and Alexandre Blais (Université de Sherbrooke).

Citation: 10.1038/nature08121

Source : http://www.scienceblog.com/cms/scientists-create-first-electronic-quantum-processor-22690.html

vendredi 26 juin 2009

Faire du web une expérience physique grâce aux RFID

Comment la technologie, les capteurs et autres détecteurs permettent de rendre visibles des phénomènes qui normalement ne le sont pas. C’est la question que s’est posée Timo Arnall, qui dirige le projet Touch à l’école d’architecture et de design d’Oslo. Celui-ci travaille sur des applications et des services permettant aux individus d’interagir avec des objets mais aussi avec leur environnement.

Le but étant de mettre au jour de nouveaux usages, dans les secteurs du divertissement, du marketing, de l’entreprise ou de l’éducation. Le projet est présenté à l’occasion de la conférence Lift with Fing, qui se tient à Marseille, et à laquelle L’Atelier est présent. Parmi les systèmes développés, le chien Sniff. Ce chien en peluche embarque un lecteur qui le rend capable de réagir aux objets ou surfaces estampillées d’un tag RFID. Ce qui est intéressant, c’est qu’il donne un retour tactile de cette expérience, comme un tremblement.

Pour le moment, l’équipe qui l’a mis au point souhaite l’utiliser auprès d’enfants en situation de handicap, pour les rassurer sur leur environnement. Selon le chercheur, cette démarche est loin d’être anodine. "Notre utilisation du web est en effet encore souvent séparée de notre existence physique". Or la multiplication des détecteurs comme les tags RFID et la technologie NFC dans notre environnement commencent à instaurer un rapport différent à notre environnement.

Notamment en nous permettant d’interagir avec les produits directement. "L’objet physique devient une interface d’interaction, sans qu’il y ait le besoin de passer par une interface informatique", note d’ailleurs Timo Arnall. "Il crée du lien pour des expériences physiques". Le centre a également mis au point un système qui relie un lecteur RFID/NFC à un iPhone. Quand le téléphone est passé à proximité d’un objet qui embarque un tag, un dessin d’animation est lancé, qui a un rapport avec l’objet taggé.

Comme une reproduction de voiture, une figurine d’animal... L’intérêt de l’expérience est de montrer qu’un simple geste donne accès à une action. "Notre rapport aux médias n’est plus une consommation passive", note ainsi Timo Arnall. Pour information, Lift with Fing vise à détecter quelles dynamiques issues du web peuvent être réutilisées sans inventer de nouvelles logiques d’innovation dans des secteurs comme la production industrielle, ou le développement durable.

Atelier

La Grande Bretagne lance un ambitieux plan numérique

Après la France et l’Allemagne, la Grande-Bretagne vient de finaliser son plan numérique. Un plan ambitieux qui, comme le plan allemand, souligne en creux les nombreuses insuffisances du plan français. Principal objectif du projet britannique : permettre à tous les foyers de se connecter à l’Internet à haut débit à un niveau minimum de 2 Mbit/s. En France, le plan présenté en octobre dernier par Eric Besson, alors secrétaire d’Etat à l’économie numérique, prévoyait un service haut débit « universel » à 512 Kbit/s seulement.

Un niveau que tous les acteurs français jugent insuffisant pour proposer une véritable offre à haut débit. Deuxième objectif affiché par Londres : élargir l’accès au réseau à très haut débit au-delà des 50 à 60 % de foyers qui seront éligibles à cette offre. Et pour atteindre ces objectifs, le gouvernement britannique n’a pas oublié de mettre en place les sources de financement qui seront nécessaires pour pallier à l’insuffisance de l’investissement privé.

C’est le principal objectif de « Digital Britain ». Alors que 27 % des foyers britanniques (soit 2,75 millions) ont accès à Internet à des offres inférieures à 2 Mbit/s, le gouvernement anglais propose de fixer à 2012 la date pour instituer un accès à Internet à un débit minimum de 2 Mbit/s. Actuellement, le débit moyen est de 3 Mbit/s et le débit proposé à l’immense majorité des foyers (64 %) est compris entre 2 et 8 Mbit/s.

our financer la modernisation des réseaux, en zones rurales principalement, les pouvoirs publics indiquent qu’ils constitueront un fonds doté de 200 millions de livres, prélevés en partie sur la redevance audiovisuelle. D’un montant annuel de 3,6 milliards, cette redevance est versée intégralement à la BBC, qui est opposée à une baisse de ses ressources.

La mise en place d’un service universel du haut débit en 2012 n’est qu’une première étape en fait pour le gouvernement britannique. Le deuxième objectif est d’organiser le basculement rapide vers le très haut débit (FTTC, FTTH). Compte tenu des investissements réalisés et prévus par BT et Virgin Media (le câblo-opérateur), le gouvernement constate qu’en 2012, 50 % des foyers pourraient être éligibles à des offres d’accès d’au moins 20 Mbit/s.

Un marché qui pourrait s’élargir si ces offres rencontrent le succès (permettant aux opérateurs de financer une nouvelle tranche de travaux). Mais le gouvernement estime que l’investissement privé ne pourra guère couvrir plus de 60 à 70 %. Pour le dernier tiers des foyers, Londres compte donc passer à l’action. L’objectif est de financer la construction des réseaux à très haut débit pour permettre à 90 % de la population d’y avoir accès en 2017. Pour cela, le gouvernement va mettre en place un prélèvement de 50 pence par mois sur chaque ligne en cuivre. Soit 150 à 175 millions de livres par an.

Pièce essentielle dans le développement du haut et très haut débit, la téléphonie mobile va voir la gestion du spectre être modifiée. Un dossier qui a provoqué une importante polémique en Grande-Bretagne, Vodafone et O2, qui se partagent la bande 900 MHz, ne souhaitant pas rétrocéder une partie de ces fréquences. Pour régler le dossier et permettre aux autres opérateurs mobiles (Orange, T-Mobile et 3 UK) de poursuivre l’investissement dans les réseaux à très haut débit, le gouvernement reprend à son compte les propositions de la commission de gestion du spectre.

Principal objectif : mettre un plafond aux fréquences que peut détenir un opérateur dans les bandes inférieures à 1GH, permettant de couvrir le pays à moindre coût. Comme l’Ofcom doit allouer les fréquences du dividende numérique réservées à la téléphonie mobile (entre 800 et 900 MH), cela signifie que si Vodafone et O2 veulent acquérir des fréquences dans ces bandes, les deux opérateurs devront rétrocéder une partie des fréquences 900 MH.

Touchée aussi par les téléchargements illégaux de musique ou films, la Grande-Bretagne va améliorer la protection des ayants-droits. Ceux-ci pourront demander aux FAI d’envoyer des messages de mises en garde aux Internautes se livrant au piratage, dont l’adresse IP aura été identifiée. Par la suite, les ayants-droits pourront se retourner vers la justice pour obtenir réparation. Parmi les autres mesures envisagées par le gouvernement, figurent notamment la diminution du débit des lignes des pirates, voire le blocage de certaines fonctions.

R&T

le Japon parie sur la voiture électrique

Tout en poursuivant activement, sur le long terme, leurs recherches pour parvenir à produire à un prix compétitif un véhicule à pile à combustible à l’horizon 2030, les grands constructeurs automobiles japonais, qui dominent déjà le marché mondial du véhicule hybride, lancent, l’un après l’autre, leurs voitures électriques sur le marché. Mitsubishi Motors vient de présenter son "iMiEV", qui sera mis en vente en juillet. Cette voiture à quatre places est équipée de batteries lithium-ion qui sont rechargeables sur des prises domestiques et dont l’autonomie est de 160 kilomètres.

C’est la première voiture de ce type au monde à être produite en série. Par ailleurs, Fuji Heavy Industry commencera à livrer la "Plug-in Stella" à la fin du mois de juillet 2009. L’autonomie du véhicule atteindra 90 km grâce à un pack batteries li-ion de 9 kWh qui comprendra 16 modules montés en série.

Grâce à une borne de recharge rapide, la Stella pourra récupérer 80 % de son énergie en 15 minutes tandis qu’une recharge traditionnelle prendra 5 à 8 heures selon le type de prise utilisé. Toyota, quant à lui, envisage de lancer une voiture électrique sur le marché japonais au cours de cette année et sur le marché américain avant la fin 2012. Bien que leur prix de vente demeure plus élevé que celui des autres types de voitures et que leur autonomie soit moins importante, les voitures électriques s’imposent de plus, surtout en milieu urbain, comme solution de déplacement respectueuse de l’environnement.

L’Alliance Renault-Nissan vient pour sa part d’annoncer un investissement d’un milliard d’euros pour son projet de véhicules électriques. Nissan entend lancer son premier véhicule entièrement électrique aux États-Unis et au Japon en 2010, puis le commercialiser massivement à l’échelle mondiale à partir de 2012. Le Professeur Yoshihisa MURASAWA de l’Université de Tôkyô, spécialiste de la stratégie des entreprises, souligne que "Les constructeurs automobiles, en utilisant la convergence des technologies mécaniques et électroniques (mécatroniques) ont mis au point leurs technologies et accumulé leur savoir-faire au cours des années du développement des voitures à essence".

Mais l’industrie nipponne ne compte pas en rester là et veut conforter son avance technologique dans le domaine du véhicule « tout électrique ». Cinq constructeurs automobiles, dont Toyota et Nissan, sept fabricants de batteries et dix universités et instituts de recherche se lanceront conjointement dans le développement de batteries de prochaine génération.

Il s’agit d’un projet de sept ans financé par le METI, via la NEDO, avec un budget total d’environ 21 milliards de yen (environ 155 millions d’euros). Ce projet a pour objectif de tripler l’autonomie de la voiture électrique d’ici 2020. Sur le marché international de la batterie, la concurrence devient de plus en plus forte par suite de l’augmentation des demandes pour des mesures de lutte contre le réchauffement climatique.

Devant cette situation, le Gouvernement souhaite renforcer la compétitivité des entreprises japonaises en les invitant à participer à ce projet. Dans le centre de recherche qui sera mis en place au sein de l’Université de Kyôto, une cinquantaine de personnes venant des organismes participants, travailleront à plein temps pour développer des technologies fondamentales nécessaires à leur objectif commun.

L’autonomie actuelle des voitures électriques équipées de batteries lithium-ion est de 100 kilomètres pour les véhicules de taille moyenne et de 150 kilomètres pour les véhicules de petite taille, ce qui est nettement plus faible que celle des véhicules à essence dont l’autonomie est de plus de 500 kilomètres. Ce projet aura pour objectif de développer des technologies qui devraient permettre d’accumuler trois fois plus d’électricité par kilogramme de batterie.

Plus concrètement, il étudiera les mécanismes de la dégradation des matériaux en utilisant les installations d’analyse les plus avancées au Japon comme "Spring-8", grand synchrotron situé dans le département de Hyôgo, et il observera en temps réel le mouvement des ions lithium.

De telles recherches fondamentales nécessitent un budget de recherche important et une R&D de longue durée. Les entreprises participantes, qui effectuent actuellement leur R&D chacune de leur côté, ont estimé que la participation au projet serait une façon plus efficace et plus économique d’atteindre leur objectif.

En utilisant les données obtenues lors des recherches communes, les matériaux optimaux seront conçus et utilisés pour produire un prototype de batterie lithium-ion de petite taille avant 2015. En parallèle, des recherches sur un autre type de batterie devraient permettre d’atteindre une autonomie de 500 kilomètres après 2020. Les technologies développées seront appliquées également à d’autres produits, comme un accumulateur d’électricité installé dans les maisons particulières.

Mais, comme toujours, c’est le prix qui constituera le plus puissant facteur d’attractivité pour le consommateur : une étude révèle qu’une majorité serait prête à acheter une voiture qui n’émet pas de CO2 si elle ne coûte pas plus de 15.000 euros. On voit donc le défi que s’est fixé le Japon : fabriquer en 2020 un véhicule électrique d’une autonomie de 500 km coûtant moins de 15 000 euros et pouvant se recharger en quelques minutes.

Pour parvenir à relever un tel défi, le Japon a su non seulement unir sa recherche publique et industrielle mais mobiliser toutes les ressources de sa recherche fondamentale. Souhaitons que l’Europe sache allier de manière aussi efficace pragmatisme et vision à long terme si nous voulons rester dans la course mondiale du véhicule propre qui constitue un des enjeux techno-industriel majeur de ce siècle.

René Trégouët

Fondateur du Groupe de Prospective du Sénat

vendredi 19 juin 2009

8ème Conférence européenne sur l'archivage digital : appel à contributions

Vous avez déjà pu lire ici ou l'annonce de l'appel à contributions pour la 8ème Conférence européenne sur l’archivage digital qui se déroulera à Genève du 28 au 30 avril 2010.

Les organisateurs de la conférence (les Archives fédérales suisses, EURBICA et la Section des associations professionnelles du CIA) ont dès le début souhaité y impliquer les jeunes professionnels. En septembre 2008, une quinzaine d'archivistes de moins de 35 ans avaient été invités à Berne pour ébaucher les grands thèmes et le programme de la conférence, qui ont été soumis par la suite au comité scientifique. Il est probable par ailleurs qu'une équipe de flying reporters soit montée pour couvrir l'événement, comme au congrès mondial du CIA à Kuala Lumpur en 2008.

Evergreen : gestion de bibliothèques en open source

Evergreen est un système de gestion de bibliothèques qui aide les bibliothèques à gérer, cataloguer, et distribuer les documents, quelle que soit la taille ou la complexité des bibliothèques. Les caractéristiques de ce systéme sont :

  • Stable, même en cas de charge importante.
  • Robuste et capable de traiter un volume élevé de transactions et d'utilisateurs simultanés,
  • Flexible, pour tenir compte de la diversité des besoins des bibliothèques,
  • Sécurisé, afin de protéger les données et la "vie privée",
  • User-friendly, afin de faciliter l'utilisation du système.

Evergreen est un logiciel open source, libre sous licence GNU GPL.

Vous voulez en savoir plus? Visitez la Foire aux questions ou la page de recherche du site.

jeudi 18 juin 2009

Le RGI est sorti

Le Référentiel Général d'Interopérabilité (RGI) vient d'être officiellement publié. S'il contient des points très positifs, il montre aussi de très nombreuses et sévères régressions par rapport aux versions antérieures.
Il était important que ce premier pas soit franchi pour aider à gèrer la révolution qui s'annonce en e-administration.

lundi 15 juin 2009

ORANGE MECANIQUE .... M2M

Pour l'opérateur, la communication directe entre objets est une grande voie d'avenir. Des applications liées à la télémesure sont d'ores et déjà en production. Et Orange compte modifier les cartes SIM et s'appuyer sur le protocole IPv6 pour développer davantage encore cette activité.

Orange a décidé d'ouvrir un centre exclusivement réservé à ses activités de M2M (machine to machine). Situé à Bruxelles, il s'appuiera sur l'entité belge Mobistar de l'opérateur. Il s'agit pour Orange de développer un marché qu'il considère comme essentiel pour son avenir. Le M2M regroupe toutes les technologies qui permettent à des objets de communiquer entre eux, avec ou sans fil, à distance et en temps réel. Orange avait déjà lancé une 'business unit' sur ces technologies en France dès 2005 avant de racheter Silicomp en 2006 et Data & Mobiles l'an dernier. Aujourd'hui il compte sur son nouveau centre pour développer l'activité.

L'entité M2M sera au service des forces de vente d'Orange, « depuis l'avant-vente jusqu'à la signature du contrat et à la livraison du service dans les 29 pays dans lequel l'opérateur est présent et au delà ». Deux autres objectifs sont au programme du centre annoncé hier : la mise au point de la carte SIM renforcée qu'attendent les applications de M2M et la participation aux organismes de standardisation associés à cette technologie.

Ainsi, Orange préside-t-il l'ETSI (European telecommunications standards institute), une initiative qui existe depuis un an et a justement pour mission la définition d'une carte SIM dédiée. Celle-ci devra avoir une durée de vie plus longue. Dans les compteurs électriques intelligents, par exemple, il n'est pas possible de changer la carte trop souvent. Le passage de 20 000 cycles de traitement par carte environ aujourd'hui à quelque 50 000 cycles devrait permettre d'atteindre une durée de vie de 10 ans. Bien sûr, ces cartes SIM devront aussi fonctionner dans des environnements dits hostiles comme une automobile ou un milieu humide voire aquatique. Orange travaille aussi au sein de Wavenis sur la comparaison de technologies radio basse consommation plus adaptées à ces développements. Enfin, au sein du GS1, un autre organisme de standardisation, il étudie une définition plus ouverte du routage des communications entre les objets.

« Nous voulons devenir le leader mondial du M2M »

Orange considère le M2M comme indispensable à sa stratégie. Outre le caractère prometteur du marché (IDC prédit des croissances entre 8,9 et 16,5% des matériels, communications et services associés au domaine), l'opérateur pense disposer de trois des clés principales pour se positionner dans le domaine. « IPv6, les technologies radio, les cartes SIM, tout cela c'est notre métier, insiste Barbara Dalibard, directeur exécutif d'Orange Business Services. Et grâce à cela, même si nous ne sommes pas dans le business du matériel, nous voulons devenir le leader mondial du M2M. »

L'opérateur dit ainsi être le premier acteur à avoir mis sur le marché une offre commerciale IPv6 mondiale. Contrairement au protocole Internet actuel IPv4, qui atteint ses limites aujourd'hui en nombre d'adresses possibles, la nouvelle version assure un adressage pour un nombre d'objets quasiment illimité ; il est donc indispensable au déploiement du machine to machine. Orange s'attèle aussi à la connectivité entre fixe et mobile qui assure la continuité de service du M2M et au temps réel.

A noter qu'il est un besoin en vogue qui tire le M2M aujourd'hui : le développement durable. La gestion des ressources comme l'électricité ou l'eau par exemple passe systématiquement par l'installation de capteurs capables de relever la consommation, mais aussi d'échanger entre eux ou avec un système central, voire d'agir ensuite pour réguler la consommation. Le compteur électrique intelligent est l'exemple le plus concret. Il réalise des relevés sans intervention humaine, et les transmet à un système central.

Chez Primagaz, la télémesure évite l'émission de 48 tonnes de CO2 par an

Certaines communes testent aussi des éclairages reliés à des capteurs de présence. Une partie des lampadaires de rue restent éteints la nuit tombée mais s'allument au passage d'un promeneur ou d'un camion. Les informations sur la consommation sont par ailleurs récoltées pour être analysées là-encore dans un système central. Orange a par exemple équipé les citernes de Primagaz de systèmes de télémesure sur 3 400 sites différents des clients de l'entreprise. Tous les matins, l'opérateur en charge de la logistique vérifie le niveau de toutes ces citernes et définit ainsi précisément la tournée des intervenants. Résultat : en 2009, Primagaz devrait éviter un total de 80 000 km de trajet et par conséquent, l'émission de 48 tonnes de CO2.

Enfin, l'application la plus mûre, elle aussi porteuse par ricochet de protection de l'environnement, est la gestion de flottes de véhicules. Ces derniers sont équipés de puces capables d'échanger des données concernant entre autres leur trajet au système d'information. Orange dit être l'un des trois premiers sur ce marché en France.

De nombreux acteurs travaillent depuis longtemps sur le M2M. Et les opérateurs n'en sont pas les pionniers. Les industriels fabricants de puces et d'environnements embarqués, mais aussi les industriels utilisateurs comme les constructeurs automobiles par exemple. Orange a conclu des partenariats avec certains et travaille sur ces sujets avec quatre pôles de compétitivité : System@tic pour les systèmes embarqués en Ile de France, Minalogic pour l'embarqué et les nanotechnologies en Rhône Alpes, Tenerrdis pour les énergies renouvelables en Rhône Alpes également et SCS pour les solutions communicantes sécurisées en PACA.



Source : http://www.lemondeinformatique.fr/actualites/lire-orange-parie-un-pan-de-son-avenir-sur-l-activite-m2m-28630.html

CHROME 3

Google a annoncé Chrome sous Windows en beta test en septembre 2008. Quelles sont les suites à attendre?
Après des débuts assez lents, Chrome a atteint en mai 2009 2% de part de marché avec sa version 2, soit 30 millions d'internautes (1,5 milliards d'internautes estimés en janvier 2009 par AMD). Qu'attendre de la version 3?
Cette version prévue pour la rentrée 2009 va apporter les thèmes (chrome à vos couleurs) et les extensions (comme dans Firefox) qui permettront à chacun de personnaliser son navigateur Chrome. Plus important, cette version apportera l'intégration complète de HTML5 qui est le support de Google Wave, le nouveau vecteur d'échange de Google, prémisse du Web 3.0?
Cette version extrêmement rapide et supportant la vidéo et l'audio sans plugin, va permettre d'insèrer directement dans les pages Web des objets multimédia qui exigeaient jusqu'à ce jour des plugins en tout genre : flash ou autres AIR, .... Le navigateur va devenir autosuffisant et la fenêtre ouverte sur les services répartis dans les nuages de serveurs (clouds computing) de Google ... et de bien d'autres : IBM, Amazon, Microsoft, ....
Cela va aussi correspondre à la sortie de la version 2 d'Android, de nom de code Donuts. Chrome 3 sera certainement le navigateur par défaut de Donuts.
Qu'est-ce que cela veut dire? L'environnement client sera fin prêt pour le lancement opérationnel de Wave. Chrome 3 viendra avec des versions Mac et Linux. Wave aura alors 4 plates-formes Chrome pour l'accueillir : Windows, Android, Mac et Linux. Pourquoi cela?
Wave a besoin d'un environnement HTML5 et d'un Javascript très rapide. Ces pré-requis seront alors couverts par Firefox 3.5, Safari 4, Opera 10, Chrome 3 mais pas IE .... pour le moment.
Chrome 3 sera prêt pour la rentrée, date anniversaire de la sortie de Chrome 1 en 2008, et qui aura alors plus de 3% de part de marché une cinquantaine de millions d'internautes + 3 millions d'utilisateurs d'Android.
On peut s'attendre pour fin 2009 à une petite dizaine de millions d'Android et 5% de part de marché pour Chrome sur les plates-formes PC, Mac, SmartPC, MID, .....
Résumons, en fin 2009 : 5% pour Chrome, 30% pour Firefox, 5% pour Safari (Mac et iPhone), la vague 3.0 arrive ......

vendredi 12 juin 2009

RSA : dématérialisation possible avec les CAF

iXBus de SRCI est la première des plates-formes Actes homologuées par le ministère de l’Intérieur à intégrer l’échange sécurisé des dossiers RSA (Revenu solidarité active) entre les conseils généraux et les Caf (Caisses d’allocations familiales), et cela dans le strict respect des articles L133.5 et L133.5.1 du Code de l’action sociale et des familles relatifs à l’authenticité, la fiabilité et la traçabilité des échanges ainsi qu’au secret professionnel. Cette intégration a préalablement été testée avec la Cnaf (Caisse nationale d’allocations familiales). Entré en vigueur le 1er juin dernier, le RSA a été mis en paiement depuis le 6. La généralisation de sa gestion électronique risque cependant d’être retardée par le volume croissant des dossiers à traiter.

L’e-paye au Journal officiel du 13 mai 2009

La loi de simplification et de clarification du droit et d’allégement des procédures a été promulguée le 12 mai dernier sous le n° 2009-526 et a paru au Journal officiel du lendemain. Par l’article 26, elle autorise, si le salarié a donné son accord, la remise des bulletins de paie « sous forme électronique dans des conditions de nature à garantir l’intégrité des données ». Les annonces de coffre-forts électroniques employeurs et salariés devraient donc se multiplier au cours des prochains mois. La FNTC (Fédération nationale des tiers de confiance) rappelle toutefois qu’il reste encore à envisager les contours techniques du document : scellement ou signature électronique pour en garantir l’intégrité, et création de coffre fort électronique pour les salariés, comme l’énonce l’exposé des motifs de la proposition de loi.

mardi 9 juin 2009

thésaurus W ou /Thésaurus pour la des...

Le Thésaurus W ou /Thésaurus pour la description et l’indexation des archives locales anciennes, modernes et contemporaines/ est disponible à l’adresse suivante : http://www.archivesdefrance.culture.gouv.fr/gerer/classement/normes-outils/thesaurus/

Cette nouvelle édition est l’aboutissement des travaux d’un groupe piloté par la direction des Archives de France et composé d’archivistes régionaux, départementaux et communaux. Une version révisée provisoire du thésaurus-matières et des trois listes d’autorité avait été diffusée dans le réseau des archives territoriales, pour commentaires, de novembre 2008 à février 2009 et près de vingt services d’archives régionales, départementales et communales avaient fait parvenir à la DAF leurs observations. Ces remarques ont été prises en compte par le groupe de projet et ont abouti à la présente édition, qui a valeur réglementaire pour l’ensemble des services d’archives territoriales.

Le thésaurus W a été étendu aux périodes antérieures, devenant ainsi un /Thésaurus pour la description et l’indexation des archives locales anciennes, modernes et contemporaines/.

La répartition des descripteurs du thésaurus-matières en 11 chapitres correspondant aux grands domaines d’intervention de l’administration locale contemporaine a été conservée. Toutefois, l’intitulé du chapitre 11 a été modifié en TEMPS LIBRE ET SOCIABILITÉ et l’ajout de nouveaux descripteurs a pu entraîner la création de rubriques ou de sous-rubriques.

Comme dans l’édition de 1997, le thésaurus de 2009 est limité à quatre niveaux (chapitres, rubriques, sous-rubriques, descripteurs « simples »), chaque service pouvant ensuite, selon ses besoins, créer un cinquième niveau de descripteurs « libres » pour adapter et affiner l’indexation à des besoins très spécifiques ou locaux.

L’édition de 1997 comprenait 1015 descripteurs et non-descripteurs. Ont finalement été retenus 460 nouveaux descripteurs pour le thésaurus, 15 nouveaux termes pour la liste d’autorités « Actions », 64 nouvelles typologies documentaires et 122 nouveaux descripteurs pour le contexte historique. Le groupe de travail propose également la suppression de 18 descripteurs et de 11 non-descripteurs, la transformation de 8 descripteurs en non-descripteurs et de 7 non-descripteurs en descripteurs, le déplacement de 36 descripteurs dans la hiérarchie et l’ajout de 306 termes non-descripteurs de synonymie du type « employer » (EM).

Parallèlement, pour répondre à la demande des services de pouvoir disposer d’une version structurée du thésaurus pour intégration dans les logiciels d’archives, la direction des Archives de France a procédé à des tests de conversion du thésaurus au format SKOS (Système simple d'organisation des connaissances), format permettant la publication facile de vocabulaires structurés pour leur utilisation dans le cadre du Web sémantique.

C’est ainsi que le Thésaurus pour la description et l’indexation des archives locales anciennes, modernes et contemporaines est accessible en ligne sur le site de la direction des Archives de France dans différents formats :

1) dans un format destiné à l’impression (PDF) :

* la version thématique ou méthodique du thésaurus-matières présentant les descripteurs avec leurs liens de subordination (TG terme générique / TS terme spécifique), leurs liens d’association (TA termes associés) avec d’autres descripteurs, leurs liens de synonymie (EP employé pour) avec des non-descripteurs, et des notes d’application (NA) venant éventuellement en préciser l’application ;

* la version alphabétique du thésaurus-matières, dont la présentation est semblable à celle de l’édition de 1997.

* les listes des descripteurs et non-descripteurs modifiés, supprimés, ajoutés ou ayant changé de rubrique ; des renvois sont faits des termes supprimés vers ceux qui les remplacent ;

* les trois listes d’autorité « Actions », « Typologie documentaire » et « Contexte historique », c’est-à-dire des descripteurs qui ne sont pas par eux-mêmes des termes d’indexation mais qui peuvent être associés à un ou plusieurs descripteurs du thésaurus si le contexte documentaire l’exige.

2) au format XML/SKOS pour intégration dans les logiciels d’archives :

* le thésaurus-matières ;

* les trois listes d’autorité « Actions », « Typologie documentaire » et « Contexte historique ».



Afin d’éviter de trop longs délais de mise à jour, le groupe de projet, éventuellement renforcé des services intéressés par le suivi du thésaurus, aura pour mission de centraliser et de statuer (une fois par an) sur les demandes de révision ou les nouveaux descripteurs proposés par les utilisateurs. En tout état de cause, une enquête sera lancée dès 2010 dans le réseau des services d’archives territoriaux, pour avoir un premier retour sur les difficultés rencontrées dans l’application du /Thésaurus pour la description et l’indexation des archives locales anciennes, modernes et contemporaines/.

Source : http://www.archivesdefrance.culture.gouv.fr