mardi 26 août 2008

Votre imprimante vous ment!

Un article pertinent sur l'industrie des imprimantes et de leurs consommables.

samedi 23 août 2008

10 bonnes raisons de dire NON à la loi Hadopi !

Ces gens croient encore qu'on peut brider internet...

jeudi 14 août 2008

Réduire et voir la consommation de son PC

Un logiciel peut-il contribuer au respect de l'environnement ? C'est ce que veulent prouver Microsoft et Verdiem. les deux sociétés proposent aux internautes de télécharger gratuitement un petit logiciel destiné à réduire la consommation énergétique de leur PC et de se rendre compte de l'impact financier et énergétique d'une telle démarche.
Plus d' infos sur 01net

samedi 26 juillet 2008

La fabrication d'une fibre optique

Elément primordial de nos communication, la fibre optique se fabrique comme ceci:

mardi 15 juillet 2008

Pages perso de FREE sous surveillance

samedi 12 juillet 2008

Coup de balai sur les pages perso

(édité le 12 juillet 2008, merci à Yohan, et le 13, merci à Hubert)

Depuis peu, un script "tourne" sur les pages perso Free pour repérer automatiquement et repérer les comptes qui contreviennent de façon flagrante aux conditions d'usage du service. Le résultat est un site qui répond "Erreur 403".

Pour commencer, pas d'affolement : ni le site ni la base de données ne sont perdus. Si vous suivez la procédure, vous récupérerez tout.

Ce qui n'empêche pas de se demander ce qui a causé la suspension... Interrogé par nos soins, l'administrateur du service des pages perso de Free a bien voulu nous indiquer quelques cas typiques qui vont à coup sûr attirer l'attention du script, et qui sont donc à éviter.

  1. Les sites dont l'accès est totalement restreint (pour les geeks, les "401"). Bien sûr, une restriction partielle est admissible, ne serait-ce que pour la partie "administration" des forums, wikis et autres blogs.
  2. Les sites qui ne font que rediriger vers un autre site (les "301", en geeklangue), qu'il soit aussi chez free.fr ou ailleurs. Si vous tenez à migrer votre site ailleurs, faites une page d'accueil annonçant la migration (et faites-la disparaître dans un délai raisonnable). Si vous avez un site réparti sur plusieurs comptes Free, prévoyez de les fusionner.
  3. Les sites qui redirigent leur page d'accueil sur un sous-dossier en interne mais qui le font seulement en javascript. En théorie c'est admissible ; mais la redirection ne fonctionne pas actuellement avec le script (et ne fonctionnera jamais qu'avec les visiteurs qui ont le javascript activé, ce qui n'est pas le cas général).
  4. Les sites avec des fichiers en vrac sans page d'accueil (geek: Index Of) ou avec une page d'accueil vide ou équivalent. Pour stocker des fichiers, utilisez http://dl.free.fr, c'est fait pour.
Pour ceux qui se rendraient compte qu'ils sont dans une de ces situations, il est encore temps d'y remédier avant de se retrouver blacklisté bêtement.

Mise à jour : certains types de sites, malheureusement, ressemblent assez à un des cas précédents sur la forme pour se faire repérer par le script, bien que sur le fond ils n'avaient aucune intention de contrevenir et constituent de vrais sites, pour peu qu'on y change un ou deux détails. En voici les cas de figure :
Les comptes qui hébergent un site fait avec phpwebgallery dans un sous-dossier, et dont la racine ne comporte rien ou une page vide ou équivalente. Ces sites se font piéger dans le cas numéro 4 ci-dessus. Le remède, une fois la procédure de récupération d'accès suivie, est de créer à la racine une page de redirection interne (pas en javascript !) ou une page d'accueil explicative avec un lien vers le sous-dossier. Bien sûr, on peut aussi déplacer la galerie vers la racine.

Source : pagepersochezfree (par Albert Aribaud)

dimanche 13 juillet 2008

musique de disquette

Ce qui me tue sur le net, c'est de voir les idées de certains... vive la créativité!

dimanche 6 juillet 2008

Votre navigateur Web est il sécurisé?

Selon une étude publiée par un groupe de chercheurs en sécurité informatique, 637 millions d'internautes surfent sur la Toile avec une version non mise à jour de leur fureteur, les plaçant directement sous la menace d'attaques Web.

Article n° 173 - Quel navigateur web utiliser ? (120*120)Via des données récupérées auprès de Google (accès aux logs des serveurs) et de la société Secunia, un groupe de chercheurs en sécurité informatique, dont un travaillant pour la firme de Mountain View, a tenté de comprendre pourquoi autant d'attaques Web récemment perpétrées par des cybercriminels ont été couronnées de succès. Le constat est somme toute des plus simples, près de la moitié des internautes ont recours à une version non à jour de leur navigateur.

A la mi-juin 2008, les technologies de navigation les plus fréquemment rencontrées étaient constituées comme suit :
  • Internet Explorer : 78 %
  • Firefox : 16 %
  • Safari : 3 %
  • Opera : 1 %

Concernant les dernières versions utilisées, 52 % des utilisateurs naviguaient avec la version la plus à jour d'Internet Explorer, 92 % avec celle de Firefox, 70 % pour Safari et 90 % pour Opera. Ainsi, 48 % des internautes utilisaient soit une version dépassée de IE7 ou en étaient restés à IE6, qui malgré des correctifs toujours distribués ne dispose pas de toutes les fonctionnalités orientées sécurité présentes dans son successeur.

Outre le laxisme des utilisateurs, le mécanisme de mise à jour proposé par Microsoft est indirectement pointé du doigt. Il ne semble pas rencontré un franc succès. Pour preuve, la présence toujours assez importante de IE6 justement, alors même que IE7 est catalogué comme une mise à jour de sécurité. A ce titre, un rappel à l'ordre a lieu tous les mois pour les utilisateurs Windows qui opposent une résistance à la venue d'IE7 sur leur machine. Soit ils ignorent sciemment ce rappel à l'ordre, soit ils ont désactivé le système de mise à jour automatique de leur système.

Etablissant un parallèle avec l'industrie alimentaire, les chercheurs derrière cette étude préconise une date de préemption pour les navigateurs afin de mieux sensibiliser les utilisateurs, et les pousser à procéder aux mises à jour.

Source : generation-nt

lundi 16 juin 2008

Firefox 3, c'est pour demain

La nouvelle mouture de firefox 3 sort demain... un record de téléchargement est en jeu!
Pour tout savoir des nouveautés de cette version, rdv sur framablog

vendredi 13 juin 2008

Incredimail....le logiciel espion

IncrediMail est un client de messagerie qui confond messagerie et multimédia.
Il pratique l'espionnage systématique et profond de ses utilisateurs.

Extrait des conditions générales de Incrédimail :

"Les utilisateurs, incluant sans limitation les utilisateurs de l'union européenne, comprennent entièrement et consentent clairement à la collecte et au traitement de leurs informations personnellement identifiables..."

Vous aurez plus de détails sur assiste.com.free.fr

vendredi 6 juin 2008

Faux positif avec AVAST

Avast depuis très peu de temps voit une infection de type rootkit sur le fichier svchost.exe de windows. Il s'agit d'une erreur de détection (un faux positif), et si vous effacez ce fichier, votre OS va avoir du mal à s'en remettre. Mise à jour : Les définitions de virus sont corrigées, mettez à jour avast pour corriger le problème.

Avast affiche ces informations :
Sign of "Win32:Rootkit-gen[Rtk]" has been found in "C:\windows\system32\svchost.exe" file.

N'effacez pas le fichier. Faites ignorer et mettez à jour Avast régulièrement jusqu'à ce qu'il ne détecte plus rien dans ce fichier.

Le forum d'Avast est au courant et va corriger le tir, mais en attendant certains machines risquent de ne pas apprécier.

En cas de problème, il faudra réparer le système, par exemple comme suit :
http://www.informatruc.com/reparer_2.php

Source : libellules

mardi 3 juin 2008

Firefox 3, un modèle ?

Le navigateur Firefox de la fondation Mozilla, qui a réussi à se faire une place à coté d'Internet Explorer sur les systèmes Windows, devrait être disponible dans sa version 3 vers le milieu de ce mois. Très attendue, cette nouvelle version apportera son lot de nouveautés, et tentera d'établir une référence en termes de record mondial de téléchargements d'un logiciel en une seule journée.

Lorsque le navigateur Firefox 1.0 est sorti en novembre 2004 (voir notre news), le monde des navigateurs Internet était dominé de manière écrasante par Internet Explorer de Microsoft, ce dernier possédant une part de marché d'environ 95%, contre 3% pour la suite Mozilla de l'époque et 1.5% pour Opéra, Safari de l'univers Macintosh venant ensuite. Actuellement dans sa version 2, Firefox possède une part de marché d'environ 20%, allant jusqu'à 30% voire 35% dans certains pays comme la Pologne.

En quelques années, le nouveau navigateur de la fondation Mozilla a donc su s'imposer comme la véritable alternative à Internet Explorer, entraînant dans le même temps une reprise significative du développement du navigateur de Microsoft, qui paraissait alors fonctionnellement bien en retard avec sa version 6 datant de 2001. Ainsi, la version 7 d'Internet Explorer est parue fin 2006, la version 8 est quant à elle actuellement en cours de développement.

Encore en version de test, la version stable et officielle de Firefox 3.0 est prévue pour les toutes prochaines semaines. Parmi les nouveautés, une barre d'adresse "intelligente" plus claire et possédant une fonctionnalité étendue de recherche par mots-clés, ainsi que de nouveaux gestionnaires pour les téléchargements et les favoris. En ce qui concerne les performances, Firefox 3.0 devrait pouvoir résoudre le test Acid2 (tout comme devrait le faire Internet Explorer 8), signifiant un excellent respect du rendu graphique des pages web. L'occupation mémoire du navigateur sera également optimisée, et la vitesse de traitement des pages accrue.

Pour l'occasion de la sortie de Firefox 3.0, la fondation Mozilla tentera d'établir une référence en termes de téléchargements d'un logiciel en 24h. Il n'existe pas vraiment de classement officiel pour ce type de record, ce sera pour la fondation libre l'occasion d'en établir un, et dans le même temps de créer un évènement qu'on imagine bénéfique en termes de notoriété. Le record visé est modestement d'environ 2 millions de téléchargements durant les premières 24h, on peut imaginer qu'il sera bien supérieur puisque la version 2.0 du navigateur avait déjà été téléchargée à environ 2 millions d'exemplaires la première journée, et que le nombre d'utilisateurs de Firefox est en constante augmentation.

source : techno science

samedi 31 mai 2008

L'histoire des "box" ADSL

Il fallait faire un point sur les nombreuses "box" ADSL qui ont marquées notre époque...
C'est le site infos-du-net qui fait ça très bien.

jeudi 15 mai 2008

Le vrai cout des SMS

Au premier trimestre 2008, chaque français a envoyé en moyenne 43 textos par mois. C'est six de plus qu'au trimestre précédent, où la moyenne était déjà supérieure de six messages au trimestre d'avant. En un an, le nombre de SMS envoyés a grimpé de près de 40 %. Mais combien les textos rapportent-ils vraiment aux opérateurs ? Numerama a enquêté. Accrochez-vous.

En cette période de crise nationale du pouvoir d'achat s'ouvre celle de la chasse aux prix. Il faut tirer sur tout ce qui bouge. Prix des tomates au supermarché, coût du loyer, prix du sans plomb à la pompe... tout est trop cher. Mais il est un poste de dépense qui a véritablement explosé dans les foyers ces dix dernières années sans en avoir l'air : les télécommunications. Non seulement chaque famille doit avoir un abonnement à Internet et un abonnement au téléphone fixe (sauf à être en dégroupage total), mais en plus il faut désormais payer des forfaits de téléphonie mobile pour papa, maman, la grande soeur et le petit frère. Fini, le bon vieux téléphone familial de chez France Télécom. Et peu, pourtant, semblent s'interroger sur le prix des télécommunications, et en particulier sur le prix des SMS.


Nous avons donc pris notre plus jolie calculatrice et notre crayon à papier H2 taillé fin pour comprendre quel était vraiment le prix d'un SMS, entre celui qui est facturé à l'usager et celui qui est payé par l'opérateur pour le relayer. Selon nos calculs, les opérateurs réalisent une marge astronomique de plusieurs milliers de pourcents sur chaque SMS envoyé !

Tout d'abord, il faut comprendre ce que pèse un SMS dans l'infrastructure d'un opérateur. Chaque SMS envoyé est composé d'un maximum de 160 caractères, ce qui peut prendre jusqu'à 140 octets par message. Il faut ensuite y ajouter 27 octets d'informations d'entête du message (numéro du service, numéro de l'expéditeur, type de protocole, format d'encodage, date du SMS, etc.). Soit 167 octets au maximum, pour les messages les plus gros. Total qu'il nous faut multiplier par deux, puisqu'il faut envoyer puis recevoir le message : 334 octets. Arrondissons généreusement à 400 octets par message, puisqu'il y a probablement des frames supplémentaires spécifiques pour la communication.

Un méga-octets de bande passante (1.048.576 octets) peut donc véhiculer au minimum 2621 messages de 160 caractères. En France, le prix de base d'un SMS est facturé par les opérateurs environ 10 centimes d'euros (Orange et Bouygues Télécom proposent un forfait de 30 SMS pour 3 euros par mois, et SFR propose 30 SMS à 2,5 euros par mois). Soit environ 262 euros le méga-octets. A titre de comparaison, la NASA estime que la communication entre la Terre et le télescope spatial Hubble lui coûte environ 11 euros le méga-octets... soit 23 fois moins cher.

Mais allons plus loin. Selon les données fournies par l'Autorité de Régulation des Communications Electroniques et des Postes (ARCEP), les Français auraient envoyé au premier trimestre de cette année 6,7 milliards de SMS. Soit une moyenne de 2,23 milliards de textos par mois traités par les trois opérateurs mobiles, ou 833 messages par seconde. Ce qui représente collectivement 851 694 Mo par mois au maximum (rappelons qu'on se base sur l'hypothèse de messages qui font tous 160 caractères), soit un besoin moyen en bande passante de 2603 kilo-bits par seconde, soit 325 ko/s.

A un prix moyen de 10 centimes le SMS, les trois opérateurs télécoms ont gagné environ 223 millions d'euros de chiffre d'affaires par mois grâce aux textos. Mais combien l'envoie de ces messages leur coûte-t-il ?

C'est évidemment un secret jalousement gardé. Mais on peut se faire une idée de leur marge opérationnelle... en comparant ce qui est comparable. Combien est-ce que coûterait pour un particulier une bande passante mensuelle et bidirectionnelle de 325 ko/s par satellite, nécessaire au traitement de 2,23 milliards de SMS ? Pour se faire une idée, il faut aller voir les offres des FAI par satellite. L'un d'eux, Nordnet, propose une formule de connexion par satellite à 2 Mbps, à débit constant tant que l'on ne dépasse pas 1500 Mo dans le mois. Sachant qu'il nous faut 851.694 Mo par mois, il faudrait louer 567 connexions à 69,90 euros par mois pour traiter le même nombre de SMS que les opérateurs télécoms.

Ce qui fait une note de moins de 40.000 euros par mois, contre plus de 200 millions d'euros de chiffre d'affaires engrangés par les opérateurs.

Ce qui ramène le coût du SMS à.... 0,000017 euros l'unité... 5882 fois moins cher.

source : numerama

Le spam fête ses 30 ans

7 ans. Il n’aura pas fallu plus de 7 années après l’invention du courrier électronique pour qu’apparaisse le premier spam.

Le 3 mai 1978, sur le réseau Arpanet (l’ancêtre d’Internet), Gary Thuerk, commercial de la société informatique DEC, invitait par e-mail 393 personnes à découvrir sa nouvelle machine, le 2020.


Le message se présentait ainsi :

Objet : ADRIAN@SRI-KL
WE INVITE YOU TO COME SEE THE 2020 AND HEAR ABOUT THE DECSYSTEM-20 FAMILY AT THE TWO PRODUCT PRESENTATIONS WE WILL BE GIVING IN CALIFORNIA THIS MONTH. THE LOCATIONS WILL BE:

TUESDAY, MAY 9, 1978 - 2 PM
HYATT HOUSE (NEAR THE L.A. AIRPORT)
LOS ANGELES, CA

THURSDAY, MAY 11, 1978 - 2 PM
DUNFEY'S ROYAL COACH
SAN MATEO, CA
(4 MILES SOUTH OF S.F. AIRPORT AT BAYSHORE, RT 101 AND RT 92)

A 2020 WILL BE THERE FOR YOU TO VIEW. ALSO TERMINALS ON-LINE TO OTHER DECSYSTEM-20 SYSTEMS THROUGH THE ARPANET. IF YOU ARE UNABLE TO ATTEND, PLEASE FEEL FREE TO CONTACT THE NEAREST DEC OFFICE FOR MORE INFORMATION ABOUT THE EXCITING DECSYSTEM-20 FAMILY.

L’impétrant reçut en retour une volée de bois vert et les administrateurs d’Arpanet protestèrent auprès de la société DEC.

Ce message indésirable n’était que le premier d’une longue série. Le spam était né.

Il représente aujourd’hui, selon les sources, entre 75 et 90 % du trafic e-mail mondial (plus de 100 milliards de pourriels sont envoyés par jour). Et le fléau a aujourd'hui atteint les forums, les blogs, la messagerie instantanée, le fax et les SMS.

En 2004, Bill Gates, alors patron de Microsoft, avait imprudemment annoncé la disparition du spam avant 2006. Il semblerait que le phénomène ait hélas encore de nombreux jours devant lui…

source: arobase.org

mercredi 14 mai 2008

Une vieille pub

A l'heure ou le stockage sur disque-dur passe a 1 tera octect, rappelons nous qu'il n'y a pas si longtemps, les gosses rêvaient de ça


C'est pas loin 1981

MP3 ou MP3 ?

La guerre entre MP3 et CD audio fait toujours des émules, mais la qualité d'encodage aussi...
Savez vous faire la difference entre un MP3 en 128Kbs et un autre en 320Kbs?
Faudrait voir avec un bon casque mais c'est pas flagrant
C'est ici

mardi 13 mai 2008

Quelles lois informatiques

Loi de Brooks - "Ajouter des développeurs à un projet qui est déjà en retard, le retarde encore plus."

Loi de Conway - "Tout logiciel reflète l'organisation qui l'a créée."

Loi de Fitts - "Le temps pour atteindre un objectif dépends de la distance et de la taille de celui-ci."

Loi de Golub - "Un projet mal planifié prend trois fois plus de temps que prévu, alors que le même projet, bien planifié, n'aurait pris que deux fois le temps prévu."

Loi de Hoare - "A l'intérieur d'un grand problème se cache un petit problème qui ne demande qu'a sortir."

Loi de Hlade - "Si on vous donne un travail difficile, donnez-le à quelqu'un de plus paresseux que vous : il trouvera une solution plus simple."

Loi de Hofstadter - "Une tache prends toujours plus de temps que prévu, même si vous prenez en compte cette loi."

Loi de Jakob - "Les utilisateurs passent la plupart de leur temps sur d'autres applications. Donc ils préfèrent que votre application fonctionne de la même manière que les autres."

Loi de Lister - "Les personnes sous pression ont tendance à penser plus lentement."

Loi de Mencken - "Si A embête ou insulte B sous prétexte d'améliorer un produit, A est un traître."

Loi de Occams - "L'explication la plus simple est celle qui a le plus de chance d'être correcte."

Loi de Pareto - "les premiers 80% d'un tache prennent 20% du temps. Les 20% restants prennent 80% du temps."

Principe de Peter - "Dans toute hiérarchie, toute personne a tendance à s'élever jusqu'à son niveau d'incompétence."

J'avoue y retrouver certaines vérités

dimanche 11 mai 2008

Une roue magic

A l'heure de la hausse du pétrole, ça va peut être nous sauver

C'est le MagicWheel

samedi 10 mai 2008

L'outil idéal pour les contacts

Comment gérer son carnet d'adresse entre outlook, thunderbird, son palm, son téléphone.
Partager et retrouver ses favoris, partager un agenda....

Je test en ce moment un service qui permet de faire tout ça et bien plus.
les formats Vcard, calendrier et autres sont bien gérés.
C'est ici

True Image gratuit

Acronis True Image est un logiciel qui permet de créer des sauvegardes complètes du système d'exploitation (appelées images disque) comprenant également tous vos documents, vos programmes et vos réglages.




















Acronis propose la version 8 de son logiciel (la version actuelle est la 11) en anglais après inscription et après avoir rempli un formulaire pour obtenir le lien de téléchargement et un numéro de série légal et gratuit.

A voir sur Narrow Street où tout est expliqué.

vendredi 9 mai 2008

1Go d'il y a 20 ans


Un disque-dur d' 1go il y a 20 ans et l'équivalent de nos jour sur une carte mémoire!!
Sans commentaire

jeudi 1 mai 2008

Pose de fibre optique sous-marine

Un article avec photos à l'appuies pour expliquer comment installer de la fibre optique en 2 continents.
A voir sur ZDnet

mercredi 30 avril 2008

1er couac du SP3 de XP

Coup de théâtre. Alors que sa sortie était prévue, annoncée pour ce 29 avril, le pack SP3 pose des problème de compatibilité...

Ce 29 avril tourne au... poisson d'avril! Le géant de Redmond vient de faire savoir qu'en raison "de problèmes d'incompatibilité", la mise à disposition du "service-pack 3' de mise à niveau de Windows XP était retardée.

La mise à jour était censée être activable, téléchargeable officiellement via Windows Update, ce mardi 29 avril.

Les problèmes d'incompatibilité rencontrés concerneraient des applications "point de vente" auprès des petits et moyens revendeurs... Les points d'incompatibilité ont été repérés ces derniers jours entre l'application Dynamics Retail Management System (RMS) et à la fois Windows XP SP3 et Windows Vista Service Pack 1.

Du coup, en toute dernière heure, Microsoft a pris la décision, sage et louable, de repousser la date de mise à disposition.

Selon IDG News, le géant du logiciel a précisé qu'il était en train de mettre en place des filtres afin d'empêcher l'activation de Windows Update qui devait apporter à la fois les service-packs de Windows XP et de Vista aux systèmes supportant Dynamics RMS.

Une fois que ces fonctions de filtrage seront opérationnelles, Microsoft planifie de livrer XP SP3 sur Windows Update et sur son site Web 'Download Center' pour un déploiement auprès des utilisateurs qui ne disposent pas de Dynamics RMS.

A cette heure, Microsoft n'a pas encore pu préciser combien de temps cela prendra pour activer ces filtres Dynamics RMS.

Source Silicon

mardi 22 avril 2008

Google...tout un mystère

L’infrastructure utilisée par le géant de la recherche Google est un mystère que beaucoup aimeraient percer, que ce soit les concurrents ou les utilisateurs étonnés de la réactivité sans faille des services malgré un nombre d’utilisateurs record.

google-pingdom-tools

Voici quelques réponses et hypothèses concernant les Data centers de Google.

La culture du secret

Google estime que leurs Data Centers leur donnent un avantage important face à la concurrence, c’est pourquoi peu d’informations filtrent sur le nombre de centres, leur taille, leur localisation, leur puissance ou encore la consommation électrique de ceux-ci.

Pour rester discrets, les data centers ne sont d’ailleurs pas créés sous le nom de Google, mais par des sociétés LLCs (Limited Liability Corporations) soit l’équivalent de nos sociétés à responsabilité limité en France.

Où sont les Data Centers ?

Si on compte les sites en construction, les connaissances actuelles font état de 19 sites aux Etats-Unis, de 12 en Europe, 3 en Asie, 1 en Russie et 1 en Amérique du Sud. Tous les data centers ne sont pas la propriété de Google, qui continue à louer de l’espace dans des centres tiers (principalement pour du Peering).

datacenters-google-dans-le-monde
datacenters-google-en-europe

Les plus de 500 adresses IP utilisées par le moteur de recherche Google donnent d’ailleurs peu d’informations quant à la localisation des centres puisque la plupart pointent vers le quartier général de Google à Mountain View en Californie.

Voir la carte des Data Centers ici.

Le gigantisme

D’après les rapports de comptes de Google, la firme aurait dépensée 1.9 milliards de dollars en 2006 pour ses centres et 2.4 milliards de dollars en 2007. Chaque nouveau projet de data center coûterait 600 millions de dollars.
De quoi payer la consommation électrique de chaque centre qui serait de 50 MegaWatts pour les centres majeurs et pourraient atteindre la valeur estimée de 103 MegaWatts.

Dans l’Oregon, le site de Google serait composé de 3 Data Centers de 6380m², un bâtiment administratif de plus de 1800m², d’un dortoir de 1500m² pour les employés de passage et 1600m² pour les tours de refroidissement.

google-south-carolina

Le choix des sites

Le choix de l’emplacement des Data Centers est déterminé par plusieurs critères :

  • La disponibilité d’une source d’énergie bon marché à proximité,
  • La présence de sources d’énergie renouvelable : éoliennes, énergie hydro-électrique,
  • La proximité de larges sources d’eau pour les besoins de refroidissement (rivières ou lacs),
  • La présence de larges espaces pour facilité la sécurité et la confidentialité du site,
  • La répartition des Data Centers : afin de maintenir une communication efficace entre les sites, les observateurs pensent que la proximité et la bonne répartition des centres est un élément important pour des temps de réponse faibles,
  • Les réductions d’impôts : beaucoup de régions ou d’Etats fournissent des avantages à Google en échange de son installation.

dimanche 20 avril 2008

Le volume d'eau et d'air de la terre

L’air et l’eau des denrées rare

Cette illustration nous montre le volume total de l’air dans l’atmosphère et de l’eau sur terre, représentés par deux sphères bleue (eau) et rose (air). On peut facilement imaginer que les réserves ne sont pas illimitées.

La sphère d’eau mesure 1390 km de diamètre et a un volume de 1.4 milliards de kilomètres cube. Les Océans, les mers, la calotte glacière, les lacs et rivières, les sources souterraines et dans l’atmosphère, tout y est. Quant à la sphère d’air, elle mesure 1999 km de diamètre et pèse 5140 trillion de tonnes:

Une mémoire organique pour bientot

Matsushita Denki (Panasonic) avec les universités de Tohoku et de Osaka, le Tokyo Institute of Technology et l'Advanced Institute of Science and Technologies de Nara ont mis au point une nouvelle technologie de réalisation de cellules mémoire utilisant une protéine animale, la ferritine, qui a la propriété de s'auto-organiser. L'emploi de cette protéine permet de façonner des structures à l'échelle nanométrique, plus simplement qu'avec les technologies lithographiques traditionnelles. Ceci devrait permettre de développer une puce de la taille d'un timbre et qui aurait une mémoire de 1 Téraoctet.


Différents types de mémoire RAM
Bientôt des mémoires à base de protéines ?

La ferritine est une protéine creuse qui dans le métabolisme des animaux sert à stocker le fer, mais elle peut également renfermer de nombreux autres composés inorganiques dans sa cavité (diamètre de la cavité 7 nm, taille de la protéine 12 nm). Il est très difficile de la synthétiser artificiellement donc actuellement elle est extraite in vivo à partir d'Escherichia coli. Cette ferritine est lavée à l'eau pour réduire au minimum la concentration de cations (<0,150 ppm), nuisibles au bon fonctionnement des mémoires, puis plongée dans une solution de composés métalliques (oxyde de fer, oxyde de cobalt, oxyde de zinc, sulfite d'or...) pour incorporer ces derniers dans sa cavité.

Afin que les protéines puissent se fixer sur le substrat de silicium, on trace au préalable par lithographie un motif d'agencement au titane sur celui-ci. La ferritine, à laquelle on a greffé une chaîne moléculaire qui ne se fixe que sur le titane, va donc s'arranger de manière automatique le long des motifs.

La dernière étape est d'éliminer la ferritine et de conférer les propriétés électriques au système. Une couche d'oxyde de silicium est déposée sur l'ensemble, et par chauffage à 500°C, les protéines sont dissoutes et l'oxyde métallique est réduit. Le système est finalement composé d'îlots métalliques de 7 nm de diamètre, régulièrement espacés le long des motifs, noyés dans une couche de SiO2.

Les tests réalisés ont prouvé qu'un tel dispositif pouvait effectivement servir de mémoire et que mis en application, il permettrait de créer des mémoires 30 fois plus denses que celles actuelles et ceci à un coût plus faible. Panasonic espère une mise sur le marché dans 5 ans.

Cette recherche fait partie du "Promotion of the Research and Development Project Aimed at Economic Revitalization" initié par le MEXT (Ministry of Education, Culture, Sports, Science and Technology) en 2003, thématique "New Elemental Device Development Utilizing Nanotechnology which defies all conventions of miniaturization for silicon semiconductor devices".


Source: BE Japon numéro 477 (28/03/2008) - Ambassade de France au Japon / ADIT - http://www.bulletins-electroniques.com/actualites/53766.htm

jeudi 17 avril 2008

17 ordinateurs qui ont marqués leurs époque

Les années 80 ont vu décoller le marché de la micro-informatique, avec des modèles mythiques comme le Commodore 64, l’Apple Macintosh ou le Sinclair ZX81. Les écrans couleurs, les interfaces graphiques et les portables ont fait leur arrivée.

Image


1 - Hewlett-Packard Model 85 (janvier 1980)

En janvier 1980, le constructeur américain Hewlett-Packard commercialise son HP-85, un ordinateur « tout en un », incluant donc un clavier, une unité centrale, un écran (5 pouces), mais aussi une imprimante thermique à rouleau dans un même boîtier. Le design du HP-85 est très proche de l'IBM 5100, qui date de 1975 et est considéré comme l’un des premiers micro-ordinateurs. Vendu 3 250 dollars, le HP-85 intégrait une processeur HP 8 bit cadencé à 0,613 MHz, épaulé par 8 à 64 Ko de RAM. (Crédit photo : oldcomputers.net)

Image


2 - Sinclair ZX80 (février 1980)

Le fabricant britannique Sinclair commercialise au début de l’année 1980 son ZX80, pour un peu moins de 1 000 francs. Il était animé par un processeur 8 bits cadencé à 2,5 MHz (Zilog Z80), avec 1 Ko de mémoire. Son clavier à membrane offrait une ergonomie limitée. Sinclair en vendra environ 70 000 avant de lancer une version évoluée en 1981, le ZX81 (voir ci-après). (Crédit photo : oldcomputers.net)

Image


3 - Apple III (1981)

Après le succès remporté par son Apple II, la firme de Steve Jobs lance en 1981 l'Apple III. Une machine plutôt dédiée à une utilisation professionnelle et vendue près de 3 900 dollars avec son moniteur. L’Apple III intègre un processeur Synertek 6502A grimpant à 2 MHz, et de 128 à 512 Ko de mémoire. Il s’en vendra environ 65 000 en quatre ans. (Crédit photo : oldcomputers.net)

Image


4 - Sinclair ZX81 (mars 1981)

Évolution du ZX80 sorti un an plus tôt, le Sinclair ZX81 arrive sur le marché au printemps 1981. Son prix est encore plus bas que son prédécesseur : environ 500 francs. L’ordinateur est livré en kit. Il fonctionne avec un processeur Zilog Z80A cadencé à 3,25 MHz et toujours 1 seul Ko de mémoire vive, mais évolutif jusqu’à 64 Ko. Sinclair a gardé son clavier à membrane qui aura laissé des souvenirs impérissables à plus d’un utilisateur. La programmation se faisait en Basic en tapant les instructions imprimées sur les touches, à côté des lettres. Le fabricant britannique en a écoulé plus de 500 000 exemplaires la première année. (Crédit photo : oldcomputers.net)

Image


5 - Osborne 1 (Avril 1981)

Réalisé en 1981 par Osborne Computer Corporation, le Osborne 1 est considéré comme étant le premier ordinateur portable. Il disposait d’un boîtier valise pesant un peu plus de 11 Kg. L’Osborne 1 intégrait un processeur Zilog Z80 à 4 MHz et 64 Ko de RAM. L’écran offrait une diagonale de 5 pouces. Il n’intégrait pas de batterie et devait donc être branché sur secteur. Osborne proposera par la suite une batterie portable complémentaire, offrant 1 heure d’autonomie. Cet ordinateur était vendu 1 795 dollars. Quelque 125 000 exemplaires furent construits dès 1982. (Crédit photo : oldcomputers.net)

Image


6 - Sinclair ZX Spectrum (1982)

En 1982, Sinclair propose son ZX Spectrum, qui succède au ZX81 avec, comme principale différence, la sortie vidéo couleur (sept couleurs plus le noir), au lieu du noir et blanc. Il était animé par le processeur Zilog Z80 tournant à 3,5 MHz, et doté de 16 à 48 Ko de mémoire. Cette machine a surtout été vendue en Grande-Bretagne où elle fut le premier ordinateur personnel grand public, avec un prix de 125 livres sterling (1 500 francs à l'époque). Elle fonctionnait avec un lecteur de cassette (les mêmes que les K7 audio) pour stocker les données.

Image


7 - Thomson TO7 (1982)

En 1982, la société française Thomson lance son TO7, qui rencontrera un vif succès en France du fait de sa distribution dans les écoles. Il s’est notamment distingué par l’utilisation d’un crayon optique pour pointer des éléments affichés à l’écran. Le TO7 était animé par un processeur Motorola 6809 cadencé à 1 MHz avec 8 Ko de RAM. Il était capable d’afficher 320x200 pixels en 8 couleurs.

Cette machine disposait d'une trappe pour insérer des cartouches ROM, notamment celles de jeux. Vendu 7 000 francs à sa sortie, il sera remplacé en 1984 par le TO7-70, qui intègrera notamment 48 Ko de RAM.

Image


8 - Commodore 64 (septembre 1982)

En septembre 1982, le Commodore 64 arrive sur le marché. Il sera l’un des premiers gros succès commerciaux de l’industrie du micro-ordinateur. Commodore Business Machines Inc. en vendra plus de 17 millions, au prix d’environ 600 dollars. Cette machine était basée sur un processeur MOS 6510 à 1 MHz, épaulé par 64 Ko de mémoire. L’affichage était en 16 couleurs avec une résolution de 320x200 pixels. Le Commodore 64 intégrait une puce sonore 3 voies. De nombreux jeux furent proposés pour cette plateforme. (Crédit photo : oldcomputers.net)

Image


9 - Oric 1 (1983)

En 1983, la société britannique Oric commercialise son Oric 1, basé sur un processeur 8 bits 6502 cadencé à 1 MHz, 16 Ko de mémoire et un clavier de 57 touches souples. Il offrait une résolution de 240x200 pixels en 8 couleurs, et intégrait une puce sonore 3 voies. Vendu 2 000 francs, il remporta un relatif succès au Royaume-Uni et en France, où il s'en vendra 50 000 unités en 1983.

Image


10 - Amstrad CPC 464 (1984)

C’est en 1984 qu’apparaît l’Amstrad CPC 464, qui remportera un franc succès avec plus de 2 millions d'exemplaires vendus, notamment en France. Conçu pour une utilisation familiale, il coûtait environ 3 500 francs. Son boîtier intégrait une unité centrale, un clavier et un lecteur de K7 pour charger les programmes. Il fonctionnait avec un processeur Z80A à 4 MHz, avec 64 Ko de RAM (extensibles à 512 Ko) et 32 Ko de mémoire morte (ROM extensible à 4 Mo). Le CPC 464 était capable d’afficher une palette de 27 couleurs, avec un résolution montant à 640x200 pixels (2 couleurs). Il intégrait la puce sonore General Instruments AY-3-8912, 3 voies stéréo.

Une version plus évoluée, intégrant notamment un lecteur de disquette et baptisée CPC 6128, verra le jour en 1985. De nombreux jeux seront proposés sur cette plate-forme, dont le mythique Barbarian.

Image


11 - Apple IIc (1984)

En 1984, la firme à la pomme fait évoluer son Apple II, qui devient Apple IIc (c pour compact). Vendu 1 300 dollars, cette machine bénéficie d’une campagne publicitaire qui lui permettra de s’écouler à 52 000 unités le premier jour de sa mise sur le marché aux États-Unis. Au total, Apple en vendra 400 000 en un an. L’Apple IIc était animé par un processeur MOS 65C02 à 1 Mhz, disposait de 128 Ko à 1 Mo de mémoire vive, et de 32 Ko de mémoire morte.

Image


12 - Commodore SX-64 Executive (1984)

En 1984, Commodore propose son SX-64, qui est le premier ordinateur portable couleur. Son écran de 5 pouces affiche ainsi jusqu’à 16 couleurs, pour une résolution de 320x200. Pesant un peu plus de 10 Kg, il devait être branché sur le secteur et ne disposait pas de batterie intégrée. Le SX-64 intégrait un lecteur de disquettes, ainsi qu'un clavier à ranger dans un boîtier valise dédié. Ce portable intégrait un processeur MOS 6510 à 1MHz et 64 Ko de RAM. Il fut vendu au prix de 995 dollars. (Crédit photo : oldcomputers.net)

Image


13 - Apple Macintosh (janvier 1984)

Début 1984, Apple commercialise son Macintosh, qui deviendra une marque mythique. Cette machine est considérée comme le premier ordinateur grand public à proposer une véritable interface graphique (la Macintosh GUI - Graphical User Interface). L’utilisateur n’a désormais plus à taper du code, mais navigue via des icônes en noir et blanc. Une vraie révolution à l’époque. Il fonctionnait avec un processeur Motorola 68000 à 7,83 Mhz et avait entre 128 et 512 Ko de mémoire vive. L’Apple Macintosh était vendu 2 495 dollars. (Crédit photo : oldcomputers.net)

Image


14 - Thomson MO5 (1984)

En 1984, Thomson propose son MO5, qui présente une réelle évolution par rapport à son prédécesseur, le TO7. D’ailleurs, ses programmes étaient incompatibles avec ceux du TO7 et du TO7/70. Comme ces derniers, le MO5 doit sa célébrité en France à son implantation massive dans les écoles. Il était doté d'un processeur Motorola 6809E cadencé à 1 MHz, de 48 Ko de RAM et 16 Ko de ROM. Le MO5 pouvait afficher 320x200 pixels en 16 couleurs. Vendu 2 390 Francs, il connut un succès moindre que le TO7.

Image


15 - Atari 520ST (1985)

L’Atari 520ST est commercialisé au début de l’année 1985, au prix relativement bas de 600 dollars. Il fonctionne avec une souris et une interface graphique, selon le même principe que les PC actuels. Le système d'exploitation était baptisé TOS pour The Operating System. Cette machine était dotée d’un processeur Motorola 68000 à 8 MHz et de 512 Ko de RAM. L’Atari 520ST était capable d’afficher 640 x 400 pixels en monochrome, ou notamment 640 x 200 pixels en 4 couleurs. De nombreux jeux furent proposés sur cette plate-forme. (Crédit photo : oldcomputers.net)

Image


16 - Amiga 500 (1987)

Sorti en 1987, l’Amiga 500 ou A500 était fabriqué par Commodore. Vendu 4 500 francs, il est venu entrer en concurrence avec l’Atari 520 ST. Il utilisait le processeur Motorola 68000, cadencé à 7,14 MHz (PAL) ou 7,09 MHz (NTSC). Cette machine était livrée avec 512 Ko de mémoire. Les performances graphiques sont très élevées pour l’époque, notamment le mode 640x512 pixels en 16 couleurs parmi 4096. La qualité sonore est également élevée : 4 voix 8 bits. Le système d'exploitation est un dérivé d'Unix.

Image


17 - Apple Macintosh Portable (1989)

En 1989, Apple lance son premier ordinateur portable : le Macintosh Portable. Vendu plus de 7 000 dollars, cette machine pesait un peu plus de 7 Kg avec une batterie offrant jusqu'à 12 heures d'autonomie. Cet ordinateur intégrait un processeur Motorola 68HC000 à 16Mhz , 1 Mo de RAM (9 Mo maximum) et 40 Mo de disque dur. L’écran noir et blanc offrait une diagonale de 10 pouces et pouvait afficher 640 x 400 pixels. L’Apple Macintosh Portable fonctionnait avec Mac OS 6.04. (Crédit photo : oldcomputers.net)

Source zdnet

lundi 14 avril 2008

Savoir si un contact MSN vous a zappé

Vous n'avez plus de nouvelles de vos contacts Msn ?, vous vous posez la question je suis supprimé ?. A moins de demander directement pas facile de connaitre la réalité. Voici une petite astuce pour en être sur.

1)
- Allez dans Outils > Options > Confidentialité

2)

- Faites un clique droit sur un contact

>> Supprimer est grisé, votre contact ne vous a pas supprimé. Ouf !!

>> Supprimer n'est pas grisé , votre contact vous a supprimé.

Vu sur blogparfait

vendredi 28 mars 2008

Avast! vient de franchir le cap des 50 millions d'inscriptions


Développé par ALWIL Software, société basée en République tchèque, avast! est un logiciel antivirus disponible en version française et utilisable gratuitement à titre personnel.

Bien que les tests révèlent des performances en deçà de celles de certaines solutions payantes comme BitDefender, l'outil s'avère être une excellente alternative pour bon nombre de particuliers qui l'ont adopté et l'utilisent au quotidien. Après un tout premier utilisateur enregistré en janvier 2002, l'antivirus gratuit n'a cessé de se développer, de recevoir des certifications et récompenses et de conquérir toujours plus d'utilisateurs à la recherche de performances et de gratuité. C'est ainsi qu'il vient d'enregistrer sa 50 millionième inscription.

Eduard Kucera
, co-fondateur d'ALWIL Software ne cache pas sa fierté et annonce déjà la suite : " Ceci est un succès majeur pour l'ensemble de l'équipe active d'ALWIL Software qui démontre que notre engagement à offrir l'un des meilleurs antivirus peut être payant à la fois pour nous, en tant qu'équipe, et pour nos utilisateurs. Le chiffre de cinquante millions d'utilisateurs simultanés d'avast! démontre que nous faisons bien notre métier. Cependant, nous ne sous-estimons pas l'intérêt de lutter contre les programmes malveillants : dans la version avast! 4.8 qui sortira prochainement, nous avons ajouté des capacités de détection des logiciels espions, une protection contre les rootkits, ainsi qu'un puissant module d'auto-protection du produit lui-même. "


jeudi 6 mars 2008

Des liens vers des caméra de surveillance

Les ressources de Google pour les recherches sont souvent méconnus, des arguments rajoutés aux mots clés ou des adresses précises permettent de trouver autre chose que des pages Web.
Par exemple, cette adresse qui vous renvoie une une recherche de Google pour des caméras de surveillance.

Petits voyeurs!!

Voir Youtube en haute-qualité

Youtube en HD avant Youtube HD, c'est possible, simplement en modifiant l'adresse de la vidéo.

En fin d'année dernière, le co-fondateur de Youtube Steve Che annonçait qu'un Youtube HD était en projet et qui adapterait la qualité de la vidéo en fonction de votre débit en réception.

Pour augmenter la qualité de la vidéo, il vous faut rajouter un paramètre à la fin de l'adresse de la vidéo : "&fmt=" sans les guillemets.
Par défaut, les vidéos Youtube ont une résolution affichée de 320x240 mais lorsque vous en envoyez une, elle est stockée dans sa résolution native et non recodée en 320x240. C'est grâce à cela que l'amélioration des vidéos est possible. Le taux d'échantillonnage de l'audio est lui de 22050 Hz

  • "fmt=6" pour une qualité supérieure : résolution de 448x336 et échantillonnage de 44100 Hz
  • "fmt=18" pour une qualité encore supérieure : résolution de 480x360 et encodage MP4 (codec H264 pour la vidéo et AAC pour le son)
  • Malgré tout, ce deuxième paramètre ne fonctionne pas toujours.

    Source PCinpact

    mercredi 27 février 2008

    La FNAC soupçonné de piratage

    Mauvaise nouvelle pour le chevalier blanc de la lutte contre le piratage Denis Olivennes. Le patron de la FNAC aurait-il oublié de faire le ménage dans sa propre maison avant d'attaquer les internautes ? C'est ce que laisse entendre un article paru mercredi dans le Canard Enchaîné...

    Denis Olivennes s'est fait le héraut de la lutte contre le piratage en France. L'auteur du pamphlet "la gratuité, c'est le vol" (Grasset, 2007) a été investi par Nicolas Sarkozy d'une mission sur la lutte contre le téléchargement illégal, qui a débouché sur le retour de la riposte graduée censurée par le Conseil constitutionnel, et un projet de loi déjà très contesté. Le Canard Enchaîné révèle ce matin que la Sacem enquête depuis deux mois sur une série de "vidéos suspectes" trouvées chez le premier disquaire de France. "Des concerts 'live' -souvent inédits - de grands groupes de rock, commercialisés sous un étrange label, 'Wow Corporation', une maison jusque là inconnue des professionnels du disque", indique le journal. Sont concernés notamment des lives des Rolling Stones, d'Eric Clapton, de Jimi Hendrix, ou encore de Queen. Selon toutes vraisemblances, même si rien n'est encore affirmé, il s'agirait de bootlegs, c'est-à-dire d'enregistrements pirates distribués sans autorisation. Ces enregistrements sont également proposés sur le site de la Fnac.

    L'étrange label (qui n'est pas le seul sous le collimateur de la Sacem) n'a ni adresse ni site internet, et se présente comme une société américaine. Mais selon la Sacem, qui perçoit et répartie des droits d'enregistrements au bénéfice des auteurs, des compositeurs et des éditeurs, c'est en ex-Yougoslavie que la soit-disant maison de disques est installée. L'emballage des DVD est bas de gamme, leur prix est d'ailleurs moins fort que la moyenne, et le tout est de très basse qualité. "Parfois, à l'écran, on voit un logo dans un coin, grossièrement flouté", raconte Benoît Solignac-Lecompte (BSL), responsable du service contrôles et enquêtes de la Sacem.

    Pour ne pas faire tâche dans l'alliance contre le piratage, la Sacem refuse visiblement d'accuser clairement la Fnac de vendre des DVD pirates. Mais BSL reproche tout de même aux "gens de la Fnac" qui commandent les références d'être "un peu légers quand ils achètent ces produits-là".

    Le plus drôle est la réponse de la FNAC. "Nous achetons 262.000 références par an et nous avons plus de 600 fournisseurs. Ils savent ce qu'ils nous vendent, ils sont responsables. C'est à eux d'être honnêtes. On ne va pas, à chaque commande, demander au fournisseur qu'il nous prouve que son produit possède toutes les autorisations. Maintenant, si quelqu'un nous prouve qu'il n'est pas légal, on le retire des rayons", explique au Canard Guy Messina, directeur du disque et de la vidéo chargé des achats du groupe.

    C'est exactement le même argument qui est soulevé par les responsables de sites ou de serveurs P2P, ou les sites comme Dailymotion ou Youtube, lorsqu'ils reportent la faute sur les utilisateurs qui partagent ou uploadent des contenus illicites. Pourquoi l'argument serait-il valable pour la Fnac lorsqu'elle vend ces contenus et ne le serait-il plus lorsqu'il touche des échanges à titre gratuit ?

    vendredi 15 février 2008

    Le futur de firefox

    Lors d’une conférence à la Southern California Linux Expo, Chris Blizzard, de chez Mozilla, a tenu une discussion intéressante, suivie par nos confrères d'Ars Technica,au sujet du travail actuellement effectué sur le navigateur Firefox. Chris Blizzard a également discuté des grandes lignes du développement de Firefox,ainsi que les principales voies d’améliorations pour le futur du logiciel.

    Firefox possède aujourd'hui :

    * 1000 contributeurs communautaires au code source
    * 20 000 testeurs des versions de nuit
    * 500 000 bêta testeurs
    * 50 millions d’utilisateurs quotidiens
    * 150 millions d’utilisateurs au total

    Une certaine emphase est d'ailleurs mise sur la part de marché en Europe, décrite comme frôlant les 30 %, ainsi que sur la base des utilisateurs qui a doublé ces 12 derniers mois. En plus de cet aspect communautaire, l’éditeur emploie 45 développeurs à plein temps, ce qui montre clairement l’évolution des évènements depuis l’apparition du navigateur depuis la première version. Aujourd’hui, Mozilla se décrit plutôt comme un incubateur de technologies qui murissent pour être ensuite intégrées ou non dans son logiciel phare.

    Selon Chris Blizzard, Firefox devrait véritablement entrer dans une nouvelle page de son histoire avec la version 3, qui apportera bien plus de nouveautés que ne l’avait fait la version 2. L’interface utilisateur va bénéficier d’un nombre certain de petites améliorations, sans compter une intégration bien plus poussée avec les systèmes d’exploitation. D’ailleurs, l’actuelle version bêta 3 RC3 intègre les rafraichissements visuels pour tous les systèmes, que ce soit Vista, Mac OS X ou Linux.

    Cairo à tous les étages

    L’un des plus gros travaux réalisés sur Firefox 3 concerne l’utilisation de la technologie Cairo. Cette dernière est une bibliothèque logicielle graphique libre qui définit une API de rendu vectoriel 2D indépendante du matériel. Elle est désormais largement utilisée dans le Firefox 3 pour améliorer la qualité du rendu des pages web au sein du navigateur. D’ailleurs, l’ensemble du travail effectué sur cette intégration provoque des retombées sur la bibliothèque elle-même et ses développeurs. Il y aura donc des répercussions jusque dans les distributions Linux.

    Les performances dans la ligne de mire

    Le chapitre des performances était largement attendu dans la conférence et Chris Blizzard n’a pas sauté le sujet, au contraire. Il a réaffirmé que Firefox 3 était l’occasion pour les développeurs d’optimiser largement le logiciel pour en réduire notamment la consommation en mémoire vive. 300 de ces améliorations ont déjà été apportées depuis Firefox 2, et le nombre d’allocations mémoire au lancement du navigateur a été réduit de 100 000. Sous Linux également, Firefox utilise désormais beaucoup moins de mémoire du serveur X.

    Des prétentions sur le monde mobile

    Cette question des performances est d’autant plus importante que Mozilla a clairement des ambitions en ce qui concerne le monde des téléphones mobiles. Chris Blizzard a indiqué que les technologies Internet présentes sur ces appareils étaient réellement décevantes, et qu’elles avaient contribué à casser la cohérence du web en réclamant des versions spéciales des sites web. Pour Mozilla, préserver le web comme une source unique d’informations est la grande priorité, et pour Blizzard, Apple a démontré que tout cela était possible avec Safari sur les iPhone et iPod Touch.

    Firefox Mobile, prévu normalement dans le courant de l'année, intégrera toute l’infrastructure de gestion des modules, déjà disponible sur PC (2000 extensions actuellement) . Cette version spécifique du navigateur tentera également d’utiliser les autres capacités des appareils, comme le téléphone lui-même, le GPS, la gestion des écrans tactiles ou encore la caméra. Chris Blizzard indique par ailleurs que tout le travail réalisé sur Firefox Mobile, pour améliorer notamment sa légèreté, aura un impact sur la version complète, mais ce n'est pas la première fois que Mozilla brandit ce drapeau.

    Source pcinpact

    lundi 4 février 2008

    Le gouvernement favorise les logiciels libres

    Le ministère de la Défense recommande Thunderbird et Postfix à ses fonctionnaires


    L'intégralité des 200 000 postes du ministère va devoir passer à la messagerie Thunderbird de Mozilla et au serveur de messagerie libre Postfix, à la place d’Outlook et Exchange. Des cas particuliers seront tolérés, mais sur justificatif des directions.

    Le ministère de la Défense continue de délaisser les solutions propriétaires de Microsoft, au profit d'alternatives libres. Alors que les 70 000 PC des gendarmes passent à Ubuntu,une grande majorité des 200 000 postes de l'administration du ministère vont être équipés de l'outil de messagerie Thunderbird, de la Mozilla Foundation.

    C'est ce que préconise la récente « directive définissant les règles de la messagerie électronique », du 8 janvier dernier, élaborée notamment par la Délégation générale pour l'armement (DGA). Un document évoqué lors d'une conférence sur le salon Solution Linux, et dont ZDNet.fr s'est procuré une copie (télécharger le fichier PDF).

    Obligatoire, sauf exceptions

    Thunderbird y est « recommandé », soit le niveau en dessous d'« obligatoire ». Cela signifie qu'il peut « exister des raisons valables, dans des circonstances particulières, pour ignorer la règle édictée, mais les conséquences doivent être comprises et pesées soigneusement avant de choisir une voie différente ».

    Les directions du ministère préférant conserver Outlook pourront le faire, mais en justifiant leur choix. « On s'oriente donc vers une généralisation de Thunderbird. Toutefois, des exceptions sont possibles pour tenir compte des usages spécifiques liés à l'interopérabilité », a déclaré Thierry Leblond de la DGSIC (*), direction chargée d'élaborer la politique du ministère en matière de systèmes d'information. Il répondait aux questions de Tristan Nitot,président de Mozilla Europe, qui se réjouit bien entendu de cette recommandation.

    Le responsable du ministère précise qu'elle aura nécessité 18 mois de dialogue entre les différents organismes comme l'armée de terre, l'armée de l'air, la Marine nationale ou la gendarmerie.

    Exchange troqué contre Postfix

    Côté serveur, la directive préconise Postfix, un serveur de messagerie électronique libre dont le développement a été lancé par le néerlandais Wietse Zweitze Venema. Après Outlook, le ministère prend donc également ses distances vis-à-vis d'Exchange.

    Les raisons de ce choix ne sont pas précisées, mais le ministère a déjà justifié sa préférence pour les logiciels libres.La gendarmerie a voulu passer à Firefox, puis à Thunderbird et prochainement à Ubuntu, par désir d'indépendance vis-à-vis des éditeurs, et pour les économies engendrées.

    Le passage au libre sur le poste de travail de la gendarmerie est censé permettre de réaliser 7 millions d'euros d'économies par an, majoritairement sur les licences.

    Source Zdnet

    mercredi 30 janvier 2008

    70 raisons de ne pas installer Vista

    1. Vista est trop cher
    2. Vista demande une configuration matérielle puissante
    3. Vista est disponible en plusieurs versions différentes, rendant l'offre confuse (quelle version choisir ?)
    4. Certains matériels sont incompatibles avec Vista
    5. Il faudra peut être acheter du matériel "compatible Vista" qui sera, du coup, incompatible avec d'autre OS
    6. Les innovations significatives de Vista seront/sont aussi disponibles pour Windows XP (cf la page Wikipedia sur Vista)
    7. Vista n'est pas plus stable que Windows XP
    8. L'interface utilisateur ne justifie pas à elle seule le changement
    9. Rien ne prouve que Vista améliorera la productivité
    10. Certains logiciels peuvent être incompatible avec Vista
    11. Vista force à investir dans une carte 3D récente pour utiliser toutes ses fonctionnalités
    12. Le système de Vista peut gêner le travail des anti-virus (suite aux évolutions du noyau NT6)
    13. Le remplaçant de Vista est en préparation depuis longtemps et doit sortir en 2010
    14. Vista gère mal son système de fichier (qui est une des bases d'un OS) entraînant des lenteurs du système
    15. Les entreprises refusent pour la plupart de passer à Vista (ce qui est un bon indicateur)
    16. Dell propose toujours XP avec ses machines
    17. Microsoft propose toujours Windows XP à la vente (signe qu'ils n'abandonneront pas tout de suite le support de ce système)
    18. La requète "windows vista problèmes" retourne 270 000 résultats avec Google !
    19. DirectX 10 n'apporte que peu de choses par rapport à la version précédente
    20. Certains jeux refusent de fonctionner avec Vista
    21. La compatibilité des anciens logiciels étant très aléatoire, les entreprises préfèreront garder XP pour leur applications spécifiques
    22. Il vaut mieux attendre la sortie du futur Service Pack pour profiter des mises à jour
    23. La gestion de la sécurité est trop compliquée avec Vista (imposant souvent à l'utilisateur la désactivation pure et simple de la fonctionnalité)
    24. Après désactivation de l'outil de sécurité, Vista devient vulnérable aux erreurs de manipulation des utilisateurs
    25. Windows XP fonctionne parfaitement
    26. Windows 2000 fonctionne encore très bien
    27. La plupart des distributions Linux propose les même fonctionnalités (y compris le bureau 3D) pour bien moins cher (gratuitement)
    28. Windows XP SP3 sera plus rapide et plus performant que Vista
    29. Windows XP SP3 sera moins cher que Vista
    30. Après plus d'un an de disponibilité, Vista n'a toujours pas convaincu la presse - ni les utilisateurs
    31. Les administrateurs de réseaux hétérogènes rapportent un grand nombre de problèmes avec Vista
    32. L'installation de Vista est dangereuse lors de la migration d'un volume important de données (valable pour tout changement d'OS)
    33. La plupart des jeux qui sortent n'utilisent pas les fonctionnalités supplémentaires apportées par Vista
    34. Doom ne fonctionne pas sous Vista (pas officiellement)
    35. Duke Nukem 3D ne fonctionne pas sous Vista (pas officiellement)
    36. Vista intègre un système de contrôle des données de l'utilisateur (à des fins de limitation du piratage) rendant inaccessible certains fichiers
    37. La fonction de recherche (via l'indexation des fichiers) de Vista ralenti outrageusement le système
    38. Vista utilise une technologie Peer To Peer qui sera peut être illégale si l'Etat décide d'interdire ce type de logiciel (c'est vrai j'abuse un peu là, mais on ne sait jamais)
    39. Vista utilise le framework .NET rendant le portage d'application vers d'autres systèmes d'exploitation très compliqué
    40. Microsoft a mis plus de 5 ans pour développer un OS très décevant qui possède un retard non négligeable sur son principal concurrent : Mac OS X
    41. L'interface de Vista est une copie de l'interface de Mac OS X
    42. Le nouveau système de fichier révolutionnaire WinFS n'est toujours pas disponible
    43. Les difficultés de développements de Vista posent certaines questions quant à la qualité du produit fini
    44. L'interface Aero utilisant les fonctionnalités 3D du PC, augmente ainsi la consommation de la machine
    45. L'autonomie d'un portable sous Vista est inférieur à l'autonomie d'un portable sous XP (cf. point précédent, reconnu par Microsoft)
    46. Le Windows Power Shell ne semble pas livré en standard avec Vista
    47. L'entreprise Microsoft a des problèmes avec la justice européenne
    48. Windows Vista ne respecte pas les lois sur la libre concurrence dans l'Union Européenne
    49. Seules les versions les plus complètes de Vista disposent du système d'encryption des données permettant une plus grande sécurité des fichiers
    50. Vista démarre tellement lentement que la technologie ReadyBoot a été créée pour résoudre ce problème
    51. La technologie ReadyBoot nécessite l'ajout de mémoire dans l'ordinateur
    52. Vista est tellement lent que la technologie ReadyBoost a été créée pour résoudre ce problème
    53. La technologie ReadBoost nécessite l'ajout de matériel supplémentaire pour en bénéficier
    54. Vista émule l'Open GL, les applications utilisant cette API s'exécuteront donc très lentement (une vraie régression !)
    55. Si vous ne disposez pas d'un matériel "homologué" haute définition, Vista lira vos vidéos en dégradant la qualité de celles-ci ! (Cf. HDCP)
    56. Il faut acheter la version la plus cher de Vista pour avoir accès à toutes les nouveautés (du vrai racket)
    57. Une clef d'utilisation de Vista ne peut être activé que pour un seul matériel physique (Cf. la licence d'utilisation de Windows)
    58. D'après Symantec, Vista contient trop de nouvelles lignes de code pour être vraiment fiable
    59. MacAffee affirme la même chose en estimant Vista moins fiable que son prédécesseur
    60. La Free Software Fondation a lancé une campagne de mise en garde des utilisateurs contre Vista (la campagne Bad Vista)
    61. Vista peut empêcher l'utilisation de périphérique non autorisé par Microsoft (via un contrôle du système appelé TPM : Trusted Platform Module)
    62. Vous ne trouvez pas que Vista ressemble à Windows Me ?
    63. Microsoft peut contrôler votre PC à distance pour déterminer quelle utilisation vous faites de votre ordinateur (ceci n'est peut être qu'une sale légende urbaine)
    64. Les DRM de Vista peuvent vous empêcher d'utiliser les programmes que vous voulez
    65. La licence d'utilisation de Vista indique que l'on a pas le droit de faire ce qu'on veut de notre machine !
    66. Le prix de Vista en Europe est environ 50% plus élevé qu'aux Etats Unis
    67. Certaines distributions Linux (dont Ubuntu) sont plus simples à installer que Vista
    68. Il peut coûter moins cher de changer directement de machine que d'acheter le système seul
    69. Si vos proches n'utilisent pas Vista, personne ne pourra vous aider en cas de problème
    70. Le fait que j'arrive à faire une liste aussi longue prouve qu'il n'est pas encore temps d'installer Vista
    Vu sur : http://infopascher.blogspot.com

    Ce qu'on disait d'Internet en 1995

    La gendarmerie utilisera Linux

    Une grande victoire pour l'open-source.

    En direct de la conférence Adele qui se tient dans le cadre du salon Solutions Linux :

    Le Colonel Nicolas Géraud, adjoint au DSI de la Gendarmerie Nationale vient d'annoncer au public la migration progressive de tous les postes (70 000 au total) d'ici 2009 vers la distribution Linux Ubuntu. Le calendrier est le suivant :

    • 2008 : 5000 à 8000 postes déployés
    • 2009-2012 : 12 à 15000 postes environ par an
    • 2013 : quasi-totalité du parc sous Linux (70 000 postes)

    Les principales raisons évoquées sont les suivantes :

    • Linux est mature
    • Le modèle communautaire du développement Libre est validé
    • Respect des standards qui permettent l'interopérabilité
    • Confiance dans la technologie, grâce à sa transparence.
    • Baisse des coûts (économies de l'ordre de 20% sur l'ensemble du système d'information), grâce à une économie récurrente de plus de 700 000 licences.

    L'échelle du monde

    Une façon differentes, en flash, de voir l'échelle entrent les objets de notre monde.
    C'est par la

    mercredi 23 janvier 2008

    Iphone sert vraiment à tout

    Ou à rien...faut voir, içi

    dimanche 20 janvier 2008

    Un moteur de recherche en P2P ?



    Quand on évoque un moteur de recherche P2P, on pense le plus souvent à un moteur de Torrents pour chercher des albums ou des films sur des plateformes P2P. Pourtant, depuis Skype ou Joost, on sait que la technologie P2P peut avoir d'autres applications que le partage de fichiers.

    A l'heure où les moteurs de recherches alternatifs sont rarement une alternative à l'hégémonie des principaux moteurs de recherche, “Est-ce que les réseaux P2P peuvent être un tueur de Google ?”, s'interroge Bernard Lunn pour Read/Write Web.


    Cartographie des communications Internet.

    Selon lui les barrières ne reposent pas sur la qualité des algorithmes de recherche, mais d'abord sur les pratiques et notamment le fait que changer de moteur de recherche nécessite de changer d'habitude. L'autre barrière est désormais que la profondeur de l'indexation demande d'investir des millions de dollars dans des fermes de serveurs pour arriver à scanner le web aussi massivement que le fait Google. Peut d'espoir à attendre de ce côté là, estime-t-il car pour prendre un autre exemple, voilà plus de dix ans que plus personne n'essaye d'investir pour défier Microsoft dans son hégémonie des systèmes d'exploitation. Pour Bernard Lunn, les réseaux P2P sont le seul moyen pour dépasser cette barrière technico-financière qui devient chaque jour plus élevée: il faut utiliser l'infrastructure des utilisateurs !

    Et de signaler Faroo, le moteur de recherche en P2P, qui outre sa proposition économique (Faroo propose aux utilisateurs de leur retourner 50 % des revenus des recherches), propose aussi quelques fonctionnalités intéressantes en matière de respect de vie privée ou du contrôle sur le Spam. Bien sûr, reconnaît-il, le modèle de Faroo n'est pas évident à entrapercevoir à ce stade: encore en beta, et avec un nombre d'utilisateurs très limités, Faroo a plutôt tendance à ne renvoyer aucune réponse à vos résultats puisqu'il indexe seulement les sites que les utilisateurs de Faroo visitent. Tant que ce nombre ne se mesure pas en millions, le service risque bien d'être très décevant. Peut-être que l'avenir d'un tel moteur est-il de s'allier avec un réseau P2P existant et étendu, pour arriver rapidement à un seuil d'utilisateurs qui donne des résultats satisfaisants ? Suggère Bernard Lunn.

    Reste que par rapport aux moteurs de recherche sociaux, les moteurs de recherche P2P mettent les données sous le contrôle de l'utilisateur, comme l'expliquait les concepteurs de Faroo et Jeremie Miller de Wikia/Atlas aux auteurs de AltSearchEngine: “Faroo ne collecte pas les logs des utilisateurs. Toutes les requêtes et l'index distribué sont cryptés. Ni les autres pairs, ni les intermédiaires ne peuvent observer les requêtes ou les pages visitées. Du fait de son architecture distribuée, Faroo travaille comme un anonymiseur. Aucune information personnelle ne quitte l'ordinateur du client. Même la personnalisation est réalisée du côté client.”

    A l'heure du web implicite, il n'est pas sûr que ce soit forcément un atout. Mais donnons à Faroo comme à Wikia un peu de temps pour faire leurs preuves...


    Source: internetactu.net sou

    jeudi 17 janvier 2008

    Sauvé Windows XP!

    Microsoft cessera, le 30 juin prochain, de vendre Windows XP aux assembleurs et fabricants de machines, signifiant ainsi la fin de vie commerciale de ce système d'exploitation. L'éditeur de Redmond espère ainsi favoriser le développement du successeur de XP, Windows Vista, lancé en janvier 2007. Parmi les professionnels et les particuliers, certains déplorent cette décision qui les poussera, à terme, à abandonner Windows XP. Le site d'informations Infoworld a choisi de se faire le héraut des contestataires, et vient de lancer une pétition demandant la prolongation de Windows XP, « Save XP ».

    « Nous sommes des millions à avoir pris nos marques avec XP et à ne pas voir la nécessité de changer pour Vista. C'est comme de profiter pendant des années d'un appartement confortable pour finalement recevoir un avis d'expulsion », expliquent les journalistes à l'origine de cette pétition. Ils rappellent que la demande des consommateurs a poussé certains fabricants comme Dell ou HP à réintégrer Windows XP au sein de leurs configurations et que Microsoft a déjà accepté de repousser de six mois la date de fin de vie du système. Selon eux, il devrait donc être possible d'obtenir une nouvelle prolongation si la pétition recueille suffisamment de signatures. Ils ne s'arrêtent toutefois pas à six mois ou un an de délai, mais réclament le maintien pur et simple de Windows XP, sans qu'aucune date de fin ne soit programmée.

    Les nouveautés introduites avec Windows Vista ne justifieraient pas les investissements nécessaires à une migration du parc informatique d'une entreprise. Puisque XP est maintenant un système mûr, adapté aux besoins des professionnels, ces derniers voient mal pourquoi ils devraient se tourner vers un nouveau logiciel encore imparfait et dont les nouveautés les plus évidentes sont de nature cosmétique. Ce raisonnement risque fort de se heurter à une autre logique, commerciale celle-ci, qui veut que l'on renouvelle régulièrement ses produits... Trois jours après son lancement, la pétition Save XP a recueilli plus de 13.000 signatures.

    Microsoft prépare notre surveillance

    Si vous avez vu le film The Island, vous avez été peut-être marqués par la foule de technologies qui encadre les hommes et femmes, comme la possibilité de vérifier le rythme cardiaque à distance, la pression sanguine, ou encore l’analyse urinaire en allant simplement aux toilettes. Et pour ceux qui ont vu « Bienvenue à Gattaca », les liens entre métabolisme physique et réussite professionnelle sont apparus très clairement.

    Ce ne sont que des exemples, mais Microsoft vient de provoquer un grand émoi chez les associations de défenses civiles après la révélation d'un brevet qui fait naître bien des peurs. Le brevet en question parle d’un système relié à un ordinateur capable de mesurer à distances des variables telles que :
    • Le rythme cardiaque
    • La pression sanguine
    • Les expressions et mouvements du visage
    • La température du corps
    • Les mouvements
    • L'activité cérébrale
    • La respiration
    Globalement, c’est donc une machine conçue pour mesurer sous différents aspects le métabolisme d’une personne. Mais le brevet précise en fait un contexte, celui d’un employé dans une entreprise. Le système serait raccordé à une console de surveillance et de gestion.

    Dans la pratique, une telle infrastructure dans une entreprise permettrait à un responsable de surveiller la santé et plusieurs paramètres de ses employés. Il pourrait tout à fait recevoir par exemple une alerte quand l’un deux présente des lignes d’expression faciale indiquant une déprime/dépression, un rythme cardiaque indiquant un niveau élevé de stress, etc.

    Une intrusion dans la vie privée qui, pour le Britain's Information Commissioners Office, risque de porter la surveillance au travail à un niveau inédit. Il est clair qu’un tel système pourrait provoquer des dérives conséquentes, avec de nouveaux paramètres qui entreraient en jeu pour obtenir/garder un poste. Les associations de défense craignent que les employés ne perdent leur emploi à la suite de ces données relevées par un ordinateur.

    Ce n’est pas nécessairement le but premier du système qui, selon le brevet, doit permettre de répondre à une détresse physique par les moyens adaptés, tout du moins une assistance. Le brevet a été accepté le mois dernier, après une période d’examen de 18 mois. Horacio Gutierrez, responsable de la propriété intellectuelle chez Microsoft, a indiqué que chaque brevet ne donnait pas toujours naissance à un produit fini. Beaucoup seraient en effet mis de côté pour un éventuel emploi dans le futur.

    Par Vincent Hermann (PCINpact)
    Source : USPTO

    Le nouvelle Ibook

    Les fan d'Apple devront avoir des doigts de fés!

    mardi 15 janvier 2008

    Comment voient les daltoniens

    Ca doit pas etre évident pour les feux rouge!
    içi

    Image de Mercure

    La petite planète n'est pas la plus médiatique du système.
    elle a quand meme été photographiée le 13 janvier par Messenger (pas MSN) à 200Km.

    Un écran incurvé


    De marque NEC, DLP, comme le précisait également Alienware. Capable d'afficher une résolution de 2880 x 900 pixels, celle-ci offrirait un temps de réponse de l'ordre de 0,02 miliseconde et serait capable de restituer jusqu'à 68,7 millions de couleurs. Aucun prix n'a été communiqué par NEC.

    dimanche 13 janvier 2008

    Un projecteur dans un téléphone portable

    Fini de se casser les yeux sur ces petits écrans...projeté l'image comme au cinéma!

    Prototype de Texas Instruments d'un téléphone mobile avec pico-projecteur DLP

    Entièrement plug'n play, le prototype adoptera la taille d'un simple téléphone mobile PDA et sera capable de projeter de véritables vidéos adoptant une résolution de 848 x 480 pixels. L'appareil s'appuie en l'occurrence sur la technologie Picop. Notons que l'image projetée peut atteindre une diagonale de 100 pouces.

    Sachez que PicoP est doté d'un ensemble de diodes lasers ainsi que de micromiroirs qui permettent d'assurer au final la projection de vidéos adoptant une résolution maximale WVGA. Par ailleurs, il ne mesure qu'à peine 7 mm d'épaisseur.

    Les écran tactile à la mode?

    Les écrans tactiles sont à la mode chez tous les constructeurs, et leurs possibilités sont de plus en plus impressionnantes. Le designer Ryan Han a ainsi pensé à Bello, un lecteur multimédia portable qui n’est pas sans rappeler l’iPod touch/iPhone mixé au projet Microsoft Surface. Son écran tactile rend la navigation très intuitive, et le capteur de mouvements assure des fonctionnalités inédites : secouez le lecteur et les fichiers qu’il contient s’affichent aussitôt sous forme d’icônes réorganisables.
    bello.jpg
    Quant au transfert de fichiers d’un Bello à un autre, il s’effectue simplement en le tenant comme une théière au dessus de ce dernier. Le contour transparent s’illumine également pour afficher l’état actuel de la batterie. Un projet vraiment intéressant, mais verra-t-il le jour ? (plus d'infos içi)

    samedi 5 janvier 2008

    Poker bluffant

    Tricher au Poker via Koreus