dimanche 30 août 2009

Clouds?

Generally, there are three types of clouds: Software-as-a-Service (Saas), Platform-as-a-Service (PaaS), and Infrastructure-as-a-Service (IaaS).

Software-as-a-Service (SaaS) is the same model that’s been around for years but has lately taken advantage of the cloud moniker. Google Apps and Salesforce.com are the big SaaS players but there are SaaS offerings for all kinds of business applications, including content management.

The allure of SaaS is in general:

  • Lower up-front costs
  • Someone else gets to worry about running and scaling the infrastructure

The challenges of SaaS include things like:

  • The ability to do heavy customization and complex workflows
  • Ease of integration with other systems
  • Client perceptions (and real issues) around data security
  • Data portability/vendor lock-in

The next type of cloud is Platform-as-a-Service (PaaS). The two best examples of PaaS are Google App Engine (GAE) and Salesforce.com’s force.com platform. With PaaS, you provide the code and the PaaS provider does the rest. Of course this means your code has to follow certain standards and is often subject tolimitations, but the beauty is that you get a completely custom solution without worrying about any of the infrastructure.

For certain applications, the benefits of instantaneous, global scale far outweigh the limitations of the platform. For example, I’ve seen apps in the Salesforce.com AppExchange that are basically tools for building a web site that’s tightly integrated with Salesforce.com. I think you’ll also see solutions that leverage a PaaS for certain components or sub-systems.

The third type of cloud is Infrastructure-as-a-Service (IaaS). An IaaS cloud is about providing virtual servers on-demand. Examples include things like Amazon’s EC2, Rackspace Cloud, and GoGrid. With these services you can instantly provision as many servers as you need. What you do with them is up to you. When you’re done, you turn them off. Specifics vary but you are essentially billed for CPU time.

Source : http://ecmarchitect.com/archives/2009/07/08/1014

vendredi 28 août 2009

Holographic GPU renders at near real-time speeds

If the resurgence of 3D glasses at local cinemas are any indication, we all want a bit more, ahem, depth to our cinematic experience. Unfortunately, the stylish glasses don't exactly lend themselves to an immersive experience. What would be really cool would be animated holograms. While holograms aren't the easiest things in the world to make, it is possible to take a 3D computer model and compute the data necessary to generate a hologram that can be used to project a 3D image from a screen. Given that animation is largely computer generated now anyway, where are my holographic animated movies?

One of the problems turns out to be efficient rendering. A recent paper in Optics Express, although it presents a huge speed-up in holographic rendering, demonstrates just how difficult the problem is. The basic animation is now well within the reach of modern rendering farms—unfortunately, that doesn't leave any power left to put into important things like shading, lighting, and shadows (much less character and plot).

As usual, we need to take a step back—in this case, to look at how a real hologram is made. Take the light from a laser, divide it into two beams. Shine one beam onto the object you want a hologram of, and from there let it hit a slide of photographic paper. The other beam goes directly onto the photographic paper. As a result, the photographic paper records the interference between the two beams rather than an image of the object.

The reason that this is useful is that the light from the laser is spatially and temporally coherent, and only one interference pattern is recorded, rather than the average of many millions of such patterns.

(For those who care about the details: if we take a slice through the laser beam, the electric field at two locations in that slice are fixed in their relationship with each other. Likewise if we know the electric field at one point in time and space, then temporal coherence means that we know how it will vary in time from that point in space. This sort of coherence is why we only get one interference pattern.)

To project the image, the process is reversed. Half the laser light is reflected off the interference pattern, and then recombined with the a beam that has not been modified. The combined beam is then projected towards the viewer using a lens system. Viewers perceive the 3D object rather than the interference pattern.

So, computing a hologram sounds pretty simple: just recreate the interference pattern. But there is a gotcha. For instance, if you cut a photograph in two, you get two partial images. Cutting a hologram in two, however, results in two complete images of lesser quality—every pixel encodes information about the entire image. And therein lies the rub: to display a computed hologram, the intensity of each pixel must be calculated from the entire interference pattern, not just the local contribution to the object.

Surely that can't be that difficult? Well, researchers in Japan have created a graphics card, called the HORN-6, that can do this for you. It consists of four Xilinx field programmable gate arrays (FPGA), each of which has about 7 million gates and a bit of memory (less than 1MB). Each FPGA is connected to 256MB of DDR RAM, while a fifth, smaller FPGA is used to manage the PCI bus.

These FPGAs divide the area of a 1,920 x 1,080 LCD and calculate the intensity of each pixel using a ray-tracing algorithm that also tracks the phase of the light—the phase allows the interference pattern to be calculated. In a nice bit of engineering, as the block size that each FPGA can process (e.g., the local storage limit) is completed in just under the time it takes to fetch the next block from memory. This allows the researchers to keep the FPGA load pretty much constant by prefetching data.

When the rendering is completed, the resulting interference pattern can be displayed on an LCD. This pattern can then be projected using a laser to render a hologram that is 1m along a dimension (the paper doesn't say which, so I suspect the diagonal) and has a five degree viewing angle.

Of course, the gamers amongst us want the framerate. Well, this will blow your socks off: a peak performance of 0.08fps (full resolution). But, if you dig deep and shell out for the fully kitted out model, performance goes up. You do this by sticking as many cards in your computer as you have PCI slots. The researchers demonstrated a four-board system that had a whopping 0.25fps. A distributed system of four PCs, each with four boards, clocks in at an entire 1.0fps. Awesome stuff.

It helps to put this in perspective by comparing rendering times with other hardware. Unfortunately, the researchers didn't do a very good job here. I suspect they couldn't use any standard GPUs because these are limited in the ways that they can be programmed (but I am no expert, so this could be incorrect). So, instead, they used CPU rendering times.

Even then, they could have done better, as they compared these numbers to an Intel P4 clocked at 3.4GHz, which isn't exactly cutting-edge hardware. Anyway, a single frame can be rendered in 1 hour, 16 minutes, and 14 seconds by a P4, so it probably doesn't matter that much—their card is still faster than current hardware.

The PDF is freely accessible and contains a number of movies.

Source : Optics Express, DOI: 10.1364/OE.17.013895

and http://arstechnica.com/hardware/news/2009/08/holographic-gpu-renders-at-near-real-time-speeds.ars

How popular is Chrom(ium) on Unbutu?





jeudi 27 août 2009

Il faut rentabiliser les investissements TICE

Une étude du conseil général des Landes, présentée le 25 août à Ludovia (université d'été consacrée aux applications multimédia pédagogiques), dresse un bilan en demie teinte de l'opération "un collégien, un ordinateur portable". En effet, si plus de la moitié des professeurs (57%) déclarent utiliser leur ordinateur à au moins un cours sur deux, ils ne sont que 45% à estimer que cet outil offre de nouvelles possibilités d'enseignement. "L'ordinateur ne modifie pas les pratiques pédagogiques, les enseignants l'intègrent pour reproduire ces pratiques et répliquer les cours magistraux", a commenté Pierre-Louis Ghavam-Nejad, responsable des nouvelles technologies au conseil général. "Le système éducatif favorise encore l'évaluation des connaissances académiques à celle des compétences", a-t-il regretté.
"Un collégien, un ordinateur portable", expérience pionnière en France a été mise en place depuis septembre 2001. Toutes les salles de classes des 34 collèges publics disposent de connexions internet, vidéoprojecteurs ou tableaux interactifs (à la fois tableau et écran tactile). Les collégiens peuvent utiliser le matériel chez eux et le rendent à la fin de l'année, comme les manuels. Le conseil général a décidé de mesurer l'impact de l'opération par une enquête, réalisée en octobre et novembre 2008 par TNS-Sofres auprès de 10.261 élèves, enseignants, parents d'élèves et personnels administratifs.
L'analyse livre des éléments intéressants sur les comportements des différents acteurs du collège et des précisions utiles sur les utilisations du matériel. Moins d'un enseignant sur deux (40%) déclare avoir demandé aux collégiens de se servir de leur ordinateur au cours des deux semaines précédant l'enquête. Les élèves ont le sentiment que c'est beaucoup moins fréquent et sont 25% à déclarer s'en être servi dans le même temps. Par ailleurs, l'enquête révèle qu'internet est rarement utilisé en classe. Les deux tiers des professeurs déclarent apporter systématiquement leur ordinateur portable au collège. Le principal argument invoqué par ceux qui ne l'utilisent pas est le temps perdu dans l'installation des dispositifs techniques. Les trois quarts des collégiens apportent leurs portables quatre jours par semaine. La présentation de documents – animations, textes, vidéos – est la première des utilisations du portable. Concernant les ressources vidéos, un quart des élèves se souviennent que leurs professeurs ont projeté des vidéos du site TV de France 5. 63% des professeurs d'histoire-géographie déclarent consulter les vidéos du site de l'Institut national de l'audiovisuel (INA) "Jalons pour l'histoire du temps présent" et 33% à les projeter en cours. Les logiciels utilisés : dans la famille des traitements de texte et tableurs, Word est très largement utilisé (87%) beaucoup plus qu'OpenOffice. Excel est assez peu utilisé y compris par les professeurs de mathématiques. Pour la majorité des professeurs, les élèves sont plus attentifs lorsque le cours est projeté à partir de leur propre ordinateur avec le tableau interactif. Les collégiens, eux, déclarent être plus attentifs dans la situation où le professeur fait son cours en leur demandant d'utiliser leurs propres ordinateurs. Concernant la sécurité, les trois quarts des élèves déclarent ne pas avoir accès à internet librement avec leur matériel. La mise à disposition de ce matériel apporte au personnel encadrant un surplus de travail dans trois domaines principaux : en matière de veille au respect du règlement, de gestion des pannes et des casses ainsi que pour tout ce qui touche à l'information autour de l'opération. Les ordinateurs sont renouvelés tous les trois ans et équipés d'une centaine de logiciels.
Le conseil général a investi 45 millions d'euros depuis 2001 pour l'opération, hors coûts de fonctionnement.

Les technologies de l'Information et de la Communication pour l'efficacité énergétique: un enjeu sociétal et économique

Pour remettre l'Europe sur les rails, c'est ensemble que nous allons devoir agir, et cela, dès maintenant. Il faut des actions réparatrices à court terme mais aussi, etsurtout, générer des solutions ayant un impact durable sur l'économie en vue derelancer la croissance future. C'est l'approche de la Commission et je vais vousprésenter le rôle des technologies de l'information et de la communication dans cecontexte global avec un accent particulier sur leur contribution à la lutte contre lechangement climatique et à l'amélioration de l'efficacité énergétique.Dans ces moments d'incertitude économique, on ne soulignera jamais assezl'apport vital, en termes de croissance économique, des technologies del'information et de la communication. Exploitons pleinement leur potentield'innovation et les réponses qu'elles apportent aux défis sociétaux et économiques.Quand je parle des TIC, je ne parle pas uniquement des investissements dans lesinfrastructures et dans les produits mais aussi, et en fait bien plus, des services etdes applications fondées sur les TIC. Les TIC génèrent des modèles économiques nouveaux et des opportunitésinnovantes. Elles contribuent à réduire les coûts et, par là-même, améliorent laproductivité (50% de la croissance de la productivité) et la compétitivité de notreéconomie. Cela veut dire que tout investissement structurel dans ce secteurengendrera une croissance économique et des emplois dans tous les domaines del'économie, de manière horizontale.L'Union Européenne est pionnière lorsqu'elle investit dans la recherche et qu'ellestimule l'utilisation de nos technologies au service du citoyen et de l'économie. Lebudget communautaire consacré à cette recherche est de 10 Mrd d'Euros sur 7 ansdont 800 Millions pour l'innovation pure et les projets de démonstration et 400millions pour l'efficacité énergétique. Cette année, nous concentrons 65 millionsd'Euros sur les bâtiments et les smart grids, les infrastructures de distributiond'électricité intelligentes.Dans le cadre de la relance, l'Union Européenne a prévu 3 partenariatspublics/privés sur les thèmes de la voiture verte, des bâtiments efficaces en énergieet, le dernier, sur les usines du futur. Cette recherche collaborative transfrontalière,qui réunit entreprises -grandes et petites-les start-up, les universités, est essentiellepour faire avancer l'économie. Vu que nous avons déjà l'expérience de notreinitiative "voiture intelligente" et des efforts de recherche y afférant, nous mettronsrapidement en place les structures pour faciliter le démarrage rapide de ces projets.Mais revenons à la conjoncture et aux technologies vertes au service de l'industrieet de l'économie.La relance économique est le défi européen et mondial. Cette relance estétroitement liée à la sécurité énergétique et à la lutte contre le changementclimatique. La politique Climat/Energie est sans aucun doute l’une des principalespriorités de l'UE et le restera pour les années à venir, même dans les années audelàde la crise.L’amélioration de l'efficacité énergétique est déterminante pour atteindre lesobjectifs européens de 20% d'économie d'énergie et de réduction d'émissions deCO2 d'ici à l'horizon 2020. Des mesures spécifiques visant à accélérer cesaméliorations ont été examinées lors du récent Conseil de printemps.Lors de ce même Conseil, le rôle/outil des technologies de l'information et de lacommunication permettant de trouver des solutions à tous ces enjeux, a étésouligné. Dans quelle mesure et comment?Vous avez entendu au G20 que l'Europe n'est plus seule dans la lutte contre lechangement climatique.Je vais commencer par citer l'exemple des Etats-Unis qui, dans le cadre de leurprogramme de relance économique mettent l'accent sur les technologies vertes, surla recherche et sur la sécurité énergétique. Leur intention est consacrer 150milliards de dollars sur 10 ans pour que chercheurs, entrepreneurs et ingénieurs,ensemble, fassent des avancées en matière d'approvisionnement énergétiquerenouvelable, de biocarburants de la prochaine génération, de voitures électriqueset assurent la transition vers une infrastructure électrique digitale. Ces initiativesseront, d'après les USA, créatrices de 5 millions d'emplois.L'Europe s'est occupée de tous ces problèmes bien avant. L'année dernière déjà,dans le cadre de ma communication sur l'utilisation des TIC pour améliorerl'efficacité énergétique, que les innovations basées sur ces technologies peuventfournir l'un des moyens les plus efficaces pour réaliser les "objectifs 2020" deréduction d'émissions et d'économies d'énergie. En effet, les gains d'efficacitéénergétique rendus possibles par les TIC, réduisent les émissions de carbone de15%.Nous sommes ici face à une révolution en matière d'efficacité énergétique.Notre première communication de mai 2008 avait identifié les nombreuses façonsdont les TIC pourraient contribuer aux gains d'efficacité énergétique. La secondecommunication, adoptée par la Commission le 12 mars dernier, a exposé le premiercadre politique pour la mise en oeuvre des TIC afin d'améliorer l'efficacitéénergétique.Elle identifie des actions concrètes pour le secteur des TIC, pour les gouvernementsdes Etats membres de l'UE, pour leurs administrations régionales, locales etcommunales. Elle met en lumière l'importance de partenariats de travail entre lesecteur des TIC, le secteur de l'énergie et d'autres secteurs d’activité où lesrésultats sont les plus prometteurs.Il y a une condition préalable au succès de nos actions: toutes les partiesconcernées doivent s’accorder sur un langage commun et une action commune.Nous avons besoin de lignes claires et pas de "greenwashing".C'est pourquoi j'ai lancé, lundi dernier, une consultation publique en ligne, ouverte àtous, pour que tous les acteurs impliqués dans cette initiative de grande envergureaient la même compréhension des enjeux en cause, des objectifs fixés, de lamanière d'y arriver, en résumé: de qui fait quoi et pour quand.Permettez-moi maintenant d’en venir aux éléments principaux de notre politique, le"quoi".Le premier rôle que les TIC doivent jouer est celui de permettre (pour reprendrel’expression des Nations Unies) de mesurer, quantifier et vérifier les progrèsaccomplis. Ceci est nécessaire non seulement pour le secteur des TIC, qui a desprogrès à faire pour améliorer sa propre efficacité énergétique, mais pour tous lesautres secteurs au niveau macroéconomique.Nous invitons le secteur des TIC à se mettre d'accord collectivement sur desdonnées exactes et comparables en matière de performance énergétique;notamment au niveau des systèmes qui soutiennent les opérations de fabrication etde service.La législation actuelle de l'UE impose des exigences environnementales eténergétiques pour une série de produits des TIC, y compris les ordinateurs. Avecnotre nouveau cadre, nous allons plus loin en nous concentrant sur lesaméliorations au niveau d’un système complet (un bâtiment, une usine, une ville)qui ne seront pas réalisées simplement en optimisant la performance de chaqueélément individuellement, mais en optimisant la façon dont ces éléments travaillentensemble.Les outils des TIC vont permettre à ce processus d'optimisation d'être réalisé etd'être mieux compris.Deux secteurs ont été identifiés comme offrant le plus grand potentiel d'améliorationde leur efficacité énergétique. Il s'agit du bâtiment et de la construction, et de lalogistique pour le transport de fret.Nos études nous disent que les TIC pourraient permettre de réduire jusqu'à 17% laconsommation d'énergie des bâtiments et de 27% les émissions de CO2 destransports d'ici 2020. En particulier, le secteur TIC doit créer des partenariats detravail dans le bâtiment et le transport, afin d'élaborer des solutions adaptées, surmesure, pour réduire l'empreinte énergétique et les émissions de CO2 dans lesdeux secteurs.Les États membres, aussi, ont un rôle primordial à jouer pour encourager, parexemple, le déploiement de compteurs d'électricité et d'énergie intelligents, lessmart meters dans toute l'UE pour 2020. Ceci est un objectif commun.Le compteur intelligent peut fournir des flux d'informations allant dans deuxdirections, vers l'amont et vers l'aval: vers le fournisseur d'énergie et vers leconsommateur. Il peut aussi être muni de dispositifs automatiques qui allumeront etéteindront les appareils et machines au moment le plus économiquement opportun.Les essais sur le terrain de ces compteurs intelligents ont indiqué que leurplacement dans les habitations privées conduit à des diminutions de consommationd'électricité de 10%. Étant donné l'échéance de 2020 et la durée de vie moyenne de10 à 15 ans d’une nouvelle installation de compteurs, il faut agir de suite pourpromouvoir ces installations. Toute demi-mesure est contre productive!Nous invitons donc les États membres à se mettre d'accord sur des exigencesminimales pour les compteurs intelligents, permettant le développement d’unmarché européen et donc d'un tissu industriel pour les outils de gestion intelligentede la consommation d’énergie dans les bâtiments.Je tiens à souligner l'importance du marché intérieur pour l'Europe. L'élimination desobstacles au marché intérieur est une des solutions à la crise.Nous invitons aussi les États membres, les autorités centrales, régionales, localeset communales à stimuler la demande d'outils innovateurs de TIC partout où ilspeuvent servir les politiques climatique, environnementale, énergétique etindustrielle.Je me dois aussi de mentionner le milliard d'Euros provenant du budgetcommunautaire qui a été décidé pour améliorer l'infrastructure de l'internet à hautdébit en zone rurale. Les connexions rapides et de qualité sont indispensables pourpermettre aux citoyens d'utiliser toutes les applications à déployer: eHealth,eAdministration, eLearning et aussi pour nr pas obliger les industries à migrer deszones rurales vers les villes. D'où mes actions pour assurer le "Broadband for all". Ila été estimé que le développement de l'internet à haut débit partout et pour tousaugmentera le revenu économique de 850 milliards d'Euros et créera un million denouveaux emplois à l'échéance 2015.
Extrait du discours de Viviane Reding prononcé le 3 avril 2009 lors du séminaire "Green ICT" organisé par FEDIL

eCall - saving lives through in-vehicle communication technology

In the near future, your car will have an electronic safety system that can automatically call emergency services if you have an accident. Even if you are unconscious, the system informs rescue workers of your exact whereabouts, and the ambulance and the fire brigade will be on their way in minutes. This system will work anywhere in Europe, even if you cannot speak the local language. All this thanks to "eCall", a system now being rolled out across the European Union.


jeudi 20 août 2009

Comment repenser les villes pour améliorer la qualité de vie des citadins ?

Selon l’étude "A vision of smarter cities" d’IBM*, publiée par le Global Centre for Economic Development, tous les réseaux urbains seront liés dans les villes du futur. Les infrastructures de télécommunication détermineront le dynamisme économique et commercial, qui à son tour aura des conséquences sur les flux de transport, d’énergie et de consommation d’eau.

Cette étude montre notamment que la consommation énergétique aura des conséquences déterminantes sur la qualité de l’eau, élément vital pour les habitants. De leur côté, les habitants des villes détermineront l’adoption des outils de communication. Agir sur un seul de ces réseaux aura donc des conséquences sur l’intégralité du système. D’où l’importance de ne pas se contenter de capter des données mais de faire en permanence un suivi de l’état des réseaux. Et également de doter ces derniers d’outils de mesure précis et interconnectés qui permettront d’analyser et mutualiser les données.

Cette étude montre également que les enjeux ne concernent pas que l’optimisation des ressources et souligne que "mieux ces systèmes fonctionnent, plus il y a de chances pour que la ville crée une prospérité durable". Ces différents outils créeront également de nouvelles perspectives pour les entreprises. "Par exemple, le besoin de rendre les systèmes d’une ville plus écologiques est une opportunité pour deux types d’entreprises" précise l’étude "Celles qui travaillent sur l’utilisation plus efficace des ressources rares et celles qui proposent des solutions moins polluantes". Ce développement des villes intelligentes stimulera aussi l’innovation et la compétitivité. Et sera donc source de création d’emplois.

L’étude indique qu’un investissement de 7 milliards d’euros dans l’énergie verte, la santé et le haut débit devrait créer près d’un million d’emplois aux Etats-Unis et que, pour réussir à saisir ces opportunités de rendre la ville intelligente, il vaut mieux être audacieux. "Attendre le consensus politique ou que des solutions sans risque, faciles, avérées, soient validées, ce n’est pas la bonne approche". Pour Susanne Dirks, qui a dirigé cette étude, les gagnants de ce jeu seront ceux qui se montreront intrépides et rapides. Côté technologie, la collecte des informations s’effectuera par exemple via des capteurs, qui relèvent des données sur la qualité ou l’efficacité du système d’eau, ou encore les problématiques de congestion du trafic.

Mais rendre la ville intelligente ne passe pas forcément par de nouvelles infrastructures. Il faut également innover dans l’utilisation des outils et équipements existants. C’est ainsi que pour prédire l’intensité des prochaines inondations aux Etats-Unis, des chercheurs de l’Université de Tel Aviv (TAU) utilisent les antennes relais des réseaux mobiles. Ils ont constaté que l’humidité détériore la qualité des signaux émis par les antennes lorsque les utilisateurs téléphonent ou s’envoient des messages. Du coup,"en calculant le taux d’humidité ambiante autour des antennes relais et en le comparant avec la qualité du signal émis, il est possible de construire un modèle de prédiction efficace", explique Pinhas Alpert, responsable du projet.

Ces donnés couplées avec la pluviométrie ont permis aux chercheurs d’améliorer les modèles prévisionnels d’alerte contre les inondations. Pour mettre au point leur technologie, les chercheurs ont réalisé des tests dans une zone inondable du désert de Judée en Israël, où le nombre d’antennes relais est assez important. Cette étude a été réalisée en partenariat avec les opérateurs israéliens Cellcom et Pelephone, qui ont fourni les données nécessaires aux mesures. Ce nouvel outil permet d’anticiper les changements de climat et d’éventuelles catastrophes pour évacuer les populations. Selon ces concepteurs, cette technologie est très facile à mettre en place puisque l’infrastructure existe déjà : des centaines de milliers d’antennes sont déjà installées.

En Europe, la cité italienne de Salerno et IBM ont lancé quatre projets qui numérisent les outils urbains existants. Le but est de rendre la ville plus adaptée aux besoins des citoyens. Par exemple, afin de moderniser et de développer le tourisme, ils ont installé des étiquettes RFID à travers la ville afin de mieux exploiter le potentiel culturel de la cité. Cela crée un chemin touristique capable de fournir des informations complémentaire sur les monuments en "push" directement sur les mobiles des passants.

Salerno va également mettre en place un outil de gestion du trafic en utilisant les feux de signalisation et les caméras de surveillance. Ce, afin de mettre en place un central d’information sur la circulation, les places de parking disponibles en centre ville et le prix de ces stationnements. Un autre projet va rendre la ville accessible aux personnes malvoyantes, en créant une route qui mènera les aveugles d’un parking précis au théâtre.

Pour cela, des capteurs sont installés le long du chemin, sur les trottoirs. La canne du non voyant intègre également des capteurs qui repèrent l’environnement et transfère ces données au mobile. Enfin, pour améliorer le quotidien des personnes âgées, un outil de monitoring à distance de la santé sera mis en place. Il se compose d’un appareil électronique baptisé "je me sens bien". Il contrôle la pression sanguine, rappelle aux anciens de prendre leurs médicaments et met en ligne des rapports accessibles au médecin et à la famille sur l’état de santé de la personne.

Mais la technologie n’est pas tout et les grands défis urbains du futur, comme la pollution, ne seront surmontés qu’en innovant également au niveau des usages et des comportements. Pour amener les pouvoirs publics à réagir, on peut aussi s’appuyer sur une action citoyenne et des outils communautaires.

Pour faire prendre conscience au public des conditions environnementales dans les villes américaines, les chercheurs d’Intel et de l’université de Berkeley proposent de créer une dynamique communautaire et civique pour entraîner des changements dans la gestion publique. Ils ont donc conçu et mis en ligne des outils collaboratifs accessibles via Internet et mobiles. Le but est d’obtenir des interprétations communes des phénomènes et un moyen de lancer des actions collectives. Les chercheurs apportent ainsi les outils nécessaires à la création d’une cartographie sociale de l’environnement.

Pour recueillir les données, ils ont créé un réseau mobile de capteurs qui analysent en permanence la qualité de l’air. Dans le cas de San Francisco, ce sont les véhicules des services de voirie qui ont été équipés. Les senseurs embarquent des GPS afin de relever leur position dans la ville. Ils mesurent le monoxyde et le dioxyde d’azote, le carbone, l’ozone, la température et l’humidité. Les données sont envoyées vers une base de données par message texte sur le réseau GSM. Elles sont ensuite rendues visibles grâce à un outil de visualisation sur Internet et mobile. Cette action s’inscrit dans le projet Common Sens (sens commun) qui vise à développer une plate-forme de capteurs et de logiciels. Les groupes et des individus sont ainsi à même de collecter des données environnementales. D’autres actions sont mises en place dans les principales villes des Etats-Unis. Dans ces cas, ce sont les citoyens qui embarquent des capteurs afin de faire les relevés.

Ces récentes études et expérimentations urbaines montrent que les défis liés au changement climatique, à la pollution et aux transports nous obligent à repenser les concepts qui fondent l’urbanisme. Il faut agir simultanément sur trois niveaux d’innovation distincts bien qu’interdépendants : le niveau techno-économique, en faisant les bons choix stratégiques en matière d’activités économiques et d’outils technologiques, le niveau socio-culturel, en valorisant le capital culturel local et en favorisant la mixité et la fluidité sociale et le niveau civique et coopératif, en inventant de nouveaux outils démocratiques et de nouvelles formes de participation interactive aux processus de décisions politiques, afin que les habitants s’approprient les politiques urbaines et participent de manière active à leur mise en œuvre et à leur évaluation.

René Trégouët

Fondateur du Groupe de Prospective du Sénat

Six XML Security Documents Published by W3C

The XML Security Working Group published six documents related to XML signature and encryption. XML Signatures provide integrity, message authentication, and/or signer authentication services for data of any type, whether located within the XML that includes the signature or elsewhere.
* "XML Signature Best Practices." This Working Draft describes best practices related to improving security and mitigating attacks, yet others are for best practices in the practical use of XML Signature, such as signing XML that doesn't use namespaces, for example.
* "XML Signature Syntax and Processing Version 1.1." This Working Draft updates the signature specification.
* "XML Signature Transform Simplification: Requirements and Design." This Working Draft outlines a proposed simplification of the XML Signature Transform mechanism, intended to enhance security, performance, streamability and to ease adoption.
* "W3C XML Encryption Syntax and Processing Version 1.1." This Working Draft updates the encryption specification.
* "XML Security Generic Hybrid Ciphers." This First Public Working Draft augments XML Encryption Version 1.1 by defining algorithms, XML types and elements necessary to enable use of generic hybrid ciphers in XML Security applications.
* "XML Security Algorithm Cross-Reference." This Group Note collects the various known URIs for encryption algorithms (at the time of its publication) and indicates which specifications define them.

Learn more about the Security Activity.

Xforms on the move...

Call for Review: XForms 1.1 Proposed Recommendation Published

The Forms Working Group has published a Proposed Recommendation of "XForms 1.1." XForms is not a free-standing document type, but is intended to be integrated into other markup languages, such as
XHTML, ODF or SVG. XForms 1.1 refines the XML processing platform introduced by XForms 1.0 by adding several new submission capabilities, action handlers, utility functions, user interface improvements, and helpful datatypes as well as a more powerful action processing facility, including conditional, iterated and background execution, the ability to manipulate data arbitrarily and to access event context information.

http://www.w3.org/MarkUp/Forms/
http://www.w3.org/TR/2009/PR-xforms11-20090818/
http://www.w3.org/MarkUp/Forms/

From Chaos, Order: SKOS Recommendation Helps Organize Knowledge

W3C has announced a new standard that builds a bridge between the world of knowledge organization systems - including thesauri, classifications, subject headings, taxonomies, and folksonomies - and the linked data community, bringing benefits to both. Libraries, museums, newspapers, government portals, enterprises, social networking applications, and other communities that manage large collections of books, historical artifacts, news reports, business glossaries, blog entries, and other items can now use "Simple Knowledge Organization System (SKOS)" to leverage the power of linked data. The Semantic Web Deployment Working Group also published today two Group Notes with the Recommendation, updating the "SKOS Primer" and "SKOS Use Cases and Requirements." Read the press release and testimonials and learn more about the Semantic Web Activity.

http://www.w3.org/TR/2009/REC-skos-reference-20090818/
http://www.w3.org/2006/07/SWD/
http://www.w3.org/TR/2009/NOTE-skos-primer-20090818/
http://www.w3.org/TR/2009/NOTE-skos-ucr-20090818/
http://www.w3.org/2009/07/skos-pr
http://www.w3.org/2009/07/skos-testimonial
http://www.w3.org/2001/sw/

lundi 10 août 2009

Le Sénat vote une proposition de loi contre la fracture numérique

Le Sénat a voté le 21 juillet sur un sujet assez technique, celui de la couverture haut débit des collectivités territoriales. Ce texte relatif à la lutte contre la fracture numérique, présenté par le sénateur UMP de la Gironde Xavier Pintat, est assez court, mais son premier article annonce la couleur.

Il prévoit la mise en place de schémas directeurs permettant de recenser « les infrastructures et réseaux de communications électroniques existant, d’identifier les zones qu’ils desservent et de présenter une stratégie de développement de ces réseaux, concernant prioritairement les réseaux à très haut débit fixes et mobiles permettant d’assurer la couverture du territoire concerné ». Au départ, la proposition de loi avançait même une échéance à dix ans à partir de la publication de la loi au Journal officiel, mais cette référence a été supprimée lors du vote.

Selon Xavier Pintat, dans son exposé des motifs, l’enjeu est de gommer les disparités entre citoyens dans l’accès aux services numériques. Au « tiers des abonnés, explique-t-il, les offres triple-play pour, à la fois, surfer confortablement sur la Toile, téléphoner et regarder la télévision ; aux autres, simplement la téléphonie et la navigation laborieuse sur le réseau ». "Nous devons tout faire pour permettre à l’ensemble de nos territoires de bénéficier du très haut débit dans un délai raisonnable. Comme l’électricité, il fera bientôt figure de service vital, rendant insupportable toute fracture territoriale" a expliqué M. Pintat.Il a affirmé qu’"on ne compte aujourd’hui pour 18 millions d’abonnés au haut débit que 180.000 abonnés au très haut débit" et seulement dans les zones urbaines.

La secrétaire d’Etat de la Prospective et du développement de l’économie numérique, Nathalie Koscusko-Morizet, a apporté son appui au texte, dont elle a jugé qu’il "s’inscrit dans le cadre du déploiement des réseaux à très haut débit et du passage à la TNT".

Une situation « insupportable », notamment pour les entreprises pour lesquelles les réseaux sont un outil de travail. L’existence de zones mal desservies les dissuaderait de s’y implanter, avec pour effet de nuire au développement économique de ces territoires. Selon cette proposition de loi, les collectivités seront aidées financièrement par un « fonds d’aménagement numérique des territoires ». Il servira aux travaux de « réalisation des ouvrages prévus par les schémas directeurs territoriaux d’aménagement numérique ». Le texte précise le rôle de la collectivité dans la mise en œuvre d’un chantier d’infrastructures de réseau. Les sénateurs sont également entrés dans le détail du déploiement de la télévision numérique terrestre (TNT), qui doit remplacer la télévision analogique d’ici à novembre 2011. Ils ont ainsi ajouté au texte initial toute une série d’articles donnant au CSA le rôle d’accompagnateur des collectivités dans ce chantier. Le conseil informe les maires, s’assure qu’une couverture minimale est assurée et identifie les zones qui ne sont pas couvertes. Les sénateurs ont également inclus dans le texte la possibilité d’un soutien financier aux foyers qui, une fois la télévision analogique éteinte, ne recevront pas la TNT et « devront s’équiper de moyens de réception alternatifs »

Source : OINet et RT@flash