lundi, avril 30, 2012

Template Joomla 2.5 gratuit – Universe

 

Je vous propose ce template Joomla 2.5 gratuit appelé Universe et comme son nom l’indique, il s’inspire de l’espace avec un fond étoilé pour le corps de la page et une image de la nébuleuse de l’aigle pour l’entête. Le contenu utilise aussi une image transparente pour donner un bel effet à ce template Joomla 2.5 gratuit.

Template Joomla 2.5 gratuit - Universe

Un de mes lecteurs m’a fait remarquer que certains de mes templates Joomla 2.5 gratuits ne s’adaptent pas à certains modules. C’est pourquoi, j’ai fait en sorte pour que vous pouvez insérer un module tel que que le Maxi Menu dans la position Top de ce template Joomla. Comme tous mes templates Joomla, celui-ci utilise des noms de position de Joomla 1.5 pour faciliter la transition.

Je suis en train d’apprendre le jQuery, et je pense que je vais intégrer ses possibilités dans mes prochains template Joomla 2.5 gratuits. Ils seront plus réactifs et dynamiques que ceux qui utilisent uniquement le CSS. Cependant, je ne suis pas trop fan d’utiliser du jQuery dans un template Joomla, car cela le surcharge inutilement.

Affaire à suivre…

 

Télécharger le template Joomla 2.5 gratuit – Universe

 

dimanche, avril 29, 2012

Ajouter un Sitemap à Blogger

 

Il est important d’ajouter un Sitemap à votre blog Blogger pour améliorer le référencement de votre blog. Un Sitemap est un fichier au format XML qui contient toutes les URL des articles de votre blog. Cela permet à Google et aux autres moteurs de recherche d’indexer et de trouver des pages qu’il n’aurait pas trouvé autrement.

Une autre raison d’ajouter un Sitemap à Blogger est lorsque vous voulez refléter rapidement des changements dans votre blog sur l’index de Google ou d’autres moteurs de recherche. Par exemple, j’ai un blog de test où j’ai publié des centaines de contenus dupliqués. Par la suite, j’ai vu que Google avait pénalisé mon blog en le faisant disparaitre de ses résultats. J’ai supprimé la majorité des contenus dupliqués, mais leurs URL sont toujours présentes dans l’index de Google, et donc, j’ai ajouté un Sitemap à Blogger pour avertir rapidement Google que le contenu a changé.

Quand vous créez un blog sur Blogger, Google l’ajoute automatiquement aux Webmasters Tools de Google. C’est là qu’on doit ajouter le Sitemap à Blogger. Commencez par générer un Sitemap pour Blogger avec un outil fourni par Digital Inspiration qui s’appelle Sitemap Generator.

Dans la page qui s’ouvre, vous devrez fournir l’url de votre blog Blogger et assurez-vous d’ajouter un Slash / à la fin de l’URL tel que :

http://monblog.blogspot.com/

L’outil Sitemap Generator va fournir une adresse comme la suivante pour le Sitemap de Google :

atom.xml?redirect=false&start-index=1&max-results=500

C’est cette adresse que vous devez fournir pour ajouter le Sitemap à Blogger dans Webmaster Tool. Ainsi, vous sélectionnez votre blog dans les profils disponibles, vous allez dans Sitemap/Ajouter un site nouveau sitemap et vous entrez l’adresse ci-dessus (la votre sera différente) dans la boite de dialogue qui vous demande l’url du Sitemap pour Blogger tel :

http://monblog.blogspot.com/atom.xml?redirect=false&start-index=1&max-results=500

Et vous verrez immédiatement que Google répertorie les URLs, mais il faudra quelques jours pour qu’il l’inclut dans son index. Quand vous ferez un nouveau changement important dans votre blog, vous devrez répéter ce processus en créant un nouveau Sitemap pour Blogger afin d’avertir rapidement Google de vos changements. Notez que l’outil Sitemap Generator crée aussi des Sitemaps de Blogger pour Bing et Yahoo. Par ailleurs, ces deux Sitemap sont sous forme de liens et il suffit de cliquer dessus pour envoyer vos Sitemaps à ces moteurs de recherche. Cela a marché impec pour Bing, mais j’ai eu une erreur pour Yahoo. Mais ce n’est pas grave puisque j’ai pu ajouter un Sitemap à Blogger.

 

mardi, avril 24, 2012

Google Affiliate, le test complet du programme d’affiliation de Google

 

Google vient de lancer Google Affiliate qui vous permet de proposer des liens affiliés sur des produits, des bannières ou d’autres outils d’affiliation. Pour le moment, c’est uniquement disponible pour les utilisateurs de Blogger, mais si cela marche, Google va l’étendre à tous les sites web. Par ailleurs, c’est uniquement disponible pour les blogueurs US et en Angleterre, mais cela ne m’étonnera pas qu’il débarque bientôt en France.

google-affiliate-blogger_2

Je ne sais pas si cela va marcher, mais j’ai jeté un petit coup d’oeil et l’interface est plutôt bien foutue. Cela ressemble à Google Adword. L’avantage de Google Affiliate est que les revenus sont directement versés dans votre compte Adsense et que vous bénéficiez du même mode de paiement. L’affiliation est disponible sous formes de liens, de bannières, etc. L’option pour Blogger est limitée, mais Google Affiliate permet aussi de lister tous les annonceurs possibles.

google-affiliate-blogger_3

google-affiliate-blogger_4

En fait, Google Affiliate n’est pas nouveau, mais la seule chose est qu’on pourra insérer des annonces pertinentes directement de l’interface de l’édition d’articles de Blogger. Si vous voulez l’utiliser dès maintenant, votre blog devra être en anglais puisque c’est la principale condition des annonceurs. Par ailleurs, une autre condition est de ne jamais citer le nom de la marque (pour éviter un conflit de référencement).

Je n’ai jamais cru dans le potentiel de l’affiliation, mais je ne cracherais pas dessus si cela débarque en version francophone. J’ai quand même un blog anglais, mais il est pénalisé pour l’instant par Google… Donc wait and see. Concernant les revenus moyens, Google Affiliation déçoit beaucoup, car la plupart des prix ne dépassent pas les 10 euros, en tout, cas pour les produits les plus fréquents. Ainsi, un placement de liens sur 3 mois ne vous rapporte qu’une dizaine d’euros. Dans certaines catégories, par exemple, les pièces pour automobile, cela peut quand même atteindre les 50 euros.

Une affaire à suivre…

 

Mots clés Technorati : ,

vendredi, avril 20, 2012

Adsense et le contenu dupliqué

 

Le contenu dupliqué a toujours été une question délicate avec Google, surtout, si on l’affiche avec des annonces Adsense. La première réponse est NON, vous ne pouvez pas utiliser de contenu dupliqué, car cela tombe sous le bon sens. Si deux sites affichent le même contenu, pourquoi Google favoriserait le votre au détriment de l’original ?

Si Google devait pénaliser tous les sites de contenu dupliqué, alors les médias, les sites de communiqués de presse, les dépêches de presse seraient aussi pénalisés et pourtant, il suffit de lire les articles de ces grands médias pour voir qu’ils ne font que copier les agences de presse. Donc, Google ne vous pénalisera pas pour votre contenu dupliqué, en tout cas, la pénalité ne sera pas un bannissement de l’index, mais simplement, que vous ne serez jamais bien positionné dans le référencement.

A la question : Est-ce que je peux être banni d’Adsense pour du contenu dupliqué ? La réponse est NON… dans la majorité des cas. Si vous êtes un bon client d’Adsense (si vous n’avez jamais enfreint les règles), Adsense vous enverra une notification par mail indiquant que l’un de vos contenus pose problème et il vous donnera un délai pour le supprimer (généralement 48 heures) et en attendant, il désactivera l’affichage des annonces Adsense sur le site incriminé. Si les infractions sont répétées alors Google peut supprimer le blog ou site en question, et il peut même vous bannir d’Adsense, mais cela reste rare.

Mais cela dépend pour chaque auteur et du type de contenu dupliqué. Il existe des contenus dupliqués qui ne sont pas copiés systématiquement à travers le web, et donc, vous aurez quand même une certaine visibilité, mais sachez qu’il y aura toujours une épée de Damoclès au dessus de votre tête. J’ai testé sur un blog sans Adsense en mettant du contenu dupliqué et pour l’instant, Google ne m’a rien dit, MAIS, le blog est quasiment absent de l’index de Google… Il est présent, mais aucune requête dans mes statistiques, ni rien de ce genre qui indique que les internautes le trouvent en tapant leurs requêtes. De ce fait, le contenu dupliqué est toujours une mauvaise chose que ce soit pour Adsense ou pour Google, en fait, il ne vous apportera que des emmerdes, donc, ne soyez pas paresseux et créez ou réécrivez votre contenu.

Une autre question qui arrive souvent : Est-ce que c’est valable si je donne le lien vers la source originale ? La réponse est que cela n’a aucune importance puisque Google va toujours le considérer comme du contenu dupliqué. Si vous n’utilisez pas Adsense dans votre contenu dupliqué, vous n’aurez pas beaucoup de problèmes sauf un manque total de visibilité, MAIS, si l’auteur de la source originale se plaint à Google, alors vous tombez sous l’infraction du droit d’auteur et cela devient tout une autre histoire… Dans ce cas, Google peut vous bannir de son index et il décapitera votre compte Adsense si vous l’avez utilisé.

 

lundi, avril 16, 2012

Installer Ubuntu sur une clé USB, le guide pratique

 

On peut installer Ubuntu sur une clé USB avec l’utilitaire Unetbootin qui est spécifiquement conçu pour créer des clé USB bootable pour des distributions Linux.

  • En premier, téléchargez Unetbootin selon votre système d’exploitation (Windows, Linux ou Mac)
  • Ensuite, installez-le (je choisis Windows pour ma part)

Et vous devez juste choisir la distribution Linux et sa version pour créer la clé USB bootable pour votre Linux. L’avantage d’Unibootin est qu’il peut télécharger automatiquement la distribution Linux ou utiliser un fichier ISO que vous avez déjà téléchargé. Quand vous lancez Unibootin pour installer Ubuntu sur une clé USB, vous verrez l’image suivante :

 

installer-ubuntu-cle-usb_2

 

 

Si vous installez Unibootin sous Linux, vous devez lui donner la permission d’exécution, soit avec la commande chmod +x ./unetbootin-linux, soit en faisant un clic droit sur le fichier Unibooting et en sélectionnant Execution dans Propriété. On vous demandera votre mot de passe d’administration pendant le lancement du programme.

Une fois que vous avez sélectionné le fichier ISO ou la distribution pour installer Ubuntu sur une clé USB, Unibootin va copier les fichiers sur la clé USB et la rendra amorçable :

installer-ubuntu-cle-usb_4

 

Et c’est tout ! Vous venez de créer une clé USB bootable pour Linux. Et cela marche pour la plupart des distributions. A l’heure actuelle, vous pouvez installer Ubuntu 11.10 sur une clé USB avec Unibootable.

Une fois que le processus est terminé, redémarrez l’ordinateur et configurez le BIOS pour que la machine démarre de la clé USB.

installer-ubuntu-cle-usb_6

Au lieu de l’habituel menu de démarrer pour installer Ubuntu, vous verrez celui d’Unibootin :

installer-ubuntu-cle-usb_7

Et l’installation d’Ubuntu se fait de la manière classique. Dans Unibootin, vous verrez qu’il liste toutes les distributions Linux, mais si vous en possédez une qui n’est pas dans la liste, vous pourrez toujours créer une clé USB bootable pour Linux en fournissant simplement le fichier ISO de la distribution Linux sans spécifier son type.

 

Choisir son processeur, les caractéristiques à vérifier

 

On doit choisir son processeur en fonction de sa puissance, de sa mémoire cache et de son socket. Ce dernier point est important, car c'est le socket qui détermine la compatibilité entre la carte mère et le processeur. Le choix dépend également des besoins de l'utilisateur et de son budget.

Les principales caractéristiques pour choisir un processeur

Il existe de nombreux processeurs qui sont disponibles sur le marché et l'utilisateur lambda est parfois embêté devant la diversité des choix. Il y a 4 principaux critères qui déterminent la fréquence d'un processeur, à savoir, le socket, la fréquence d'horloge, la mémoire cache et le fait qu'il soit mono ou multi coeur. Ces derniers équipent la majorité des PC actuels et un modèle multicoeur signifie que plusieurs processeurs sont utilisés pour équilibrer la puissance de calcul. De nos jours, on peut trouver des modèles à deux, quatre et même à huit coeurs.

Le cache du processeur est une mémoire intégrée qui accélère les applications qui sont fréquemment utilisées. Elle permet d'alléger le traitement de la mémoire RAM, et actuellement, on distingue 3 niveaux de cache : L1, L2, L3. Un bon rapport qualité/prix est de choisir un processeur avec une mémoire cache de L2. La fréquence d'horloge indique la puissance brute telle que 3 GHz, 2,5 GHz ou 1,8 Ggz. Ce critère n'est plus suffisant pour déterminer la puissance du CPU, notamment pour les modèles multicoeurs. Toutefois, cela reste le principal critère pour les Netbooks et les ordinateurs qui sont équipés d'un mono coeur.

Enfin, le plus important critère est le socket qui varie selon les différents types de constructeurs de CPU. Ainsi, Intel utilise des appellations telles que 478, 775 ou 1156 tandis qu'AMD utilise les termes AM2+ ou AM3. La norme actuelle pour Intel est le socket 1156 qui supporte des processeurs doubles ou quadri coeur alors qu'AMD utilise l'AMD2+. L'AM3 concerne les processeurs haut de gamme qui sont les plus chers du marché.

Choisir son processeur selon ses besoins

On doit choisir son processeur selon ses besoins, ainsi les modèles d'entrée de gamme suffisent pour les tâches de bureautique et la navigation internet. Pour ce type d'utilisation, on conseille d'acheter un processeur AMD II X2 ou un Pentium 4 avec une fréquence de 3 Hgz. Les modèles moyen de gammes suffisent pour faire fonctionner les jeux récents et les applications graphiques. Les modèles conseillés pour cette gamme sont l'AMD II X4 ou le Core i3 de la marque Intel. De nos jours, on peut également trouver des Dual Core Intel dans cette catégorie et ils sont optimisés pour les jeux vidéo. Enfin, la catégorie haut de gamme indique des processeurs tels que l'AMD Phenom II ou l'Intel Core i7. Ce sont les plus chers du marché, mais leurs performances sont impressionnantes. Ils peuvent supporter les jeux vidéo les plus récents et les applications graphiques telles qu'Adobe Photoshop CS5 ou 3dsmax.

Vérifier la compatibilité des autres composants avant de choisir son processeur

Il ne suffit pas de choisir un processeur puissant pour obtenir des performances optimales. On doit prendre en compte la mémoire RAM et la carte graphique. Par exemple, on décide d'acheter un processeur Core i5 de la marque Intel qui se situe dans le moyen de gamme, mais on devra aussi acheter une carte graphique récente. Si cette dernière est ancienne, alors le processeur ne suffira pas pour lancer les jeux vidéo récents. La même chose est valable pour la mémoire RAM, ainsi une quantité de 1 Go RAM suffit pour les processeurs d'entrée de gamme, mais le minimum est de 2 Go DDRIII pour un CPU de moyenne gamme. Enfin pour un processeur haut de gamme, il faudra équiper son PC d'un minimum de 4 à 6 Go ce qui représente un budget conséquent.

Choisir un processeur haut de gamme est-il nécessaire ?

Les fabricants de processeurs vous diront d'acheter leurs processeurs haut de gamme tels qu'un modèle Core i7 ou un AMD Phenom II pour une performance optimale. Mais les tests montrent que la différence de performance entre un modèle de moyen et haut de gamme est seulement d'environ 20 %. Pourtant, le prix d'un processeur haut de gamme est trois fois plus cher que son homologue de moyen de gamme. C'est pourquoi on ne doit pas se précipiter pour acheter le modèle le plus récent, car il ne garantit pas toujours des performances phénoménales. Par exemple, l'AMD Vision est une nouvelle génération de processeur pour les ordinateurs portables et il est disponible dans un modèle à huit coeurs. Mais il n'est pas aussi performant qu'un Intel Core i5 pour les applications de traitement vidéo.

 

Mots clés Technorati :

Comment calibrer sa TV HD en ligne ?

 

De nombreux utilisateurs se plaignent de la luminosité et du contraste lorsqu'ils achètent une TV HD. En effet, les options par défaut sont au maximum et les lumières sont très éclatantes. L'une des raisons est que les magasins d'électroménager utilisent ces réglages pour qu'ils attirent le regard du client. Mais une fois qu'on l'a acheté, il est important de régler les différents paramètres pour obtenir la meilleure qualité possible. Une première solution est de mettre les mains dans le cambouis en les effectuant au hasard. Le problème est qu'une TV HD possède des dizaines d'options et on ignore le résultat qu'un réglage va produire. La seconde solution est d'appeler un technicien qui va la calibrer selon vos besoins. Cependant, ce type de prestation coûte très cher (cela peut dépasser les 400 euros), et donc, ce n'est pas à la portée de tout le monde. Enfin, la meilleure méthode est de calibrer sa TV HD en ligne grâce à des sites spécialisés. Cela ne coûte pas un centime, mais il faut vérifier que le site possède les réglages pour son modèle de téléviseur.

 

Notre premier site pour calibrer sa TV HD en ligne est Burosch qui recense la plupart des téléviseurs LCD ou Plasma. Son principal inconvénient est qu'il est uniquement disponible en allemand, mais on peut utiliser un traducteur en ligne pour comprendre les menus. L'interface est vraiment intuitive et il suffit de saisir la marque et la référence de sa TV HD pour qu'il affiche les réglages adéquats. Ces derniers dépendent des besoins de l'utilisateur tels qu'un affichage pour une pièce sombre, éclairée ou des réglages propres aux jeux vidéo. Le site est assez récent, donc sa base de données ne possède pas les anciens modèles. Toutefois, le site est régulièrement mise à jour et on conseille de s'y inscrire pour être informé des derniers ajouts. On recommande de vérifier ces réglages en temps réel pour voir s'ils améliorent la qualité de l'image. Par exemple, vous avez modifié l'affichage pour visionner un contenu en haute définition et on conseille donc de lancer un DVD blu ray pour contrôler si la qualité correspond à votre besoin.

 

Notre second site pour calibrer une TV HD en ligne est TweakTV et son principal avantage est qu'il est disponible en anglais. Un autre atout est que ces concepteurs sont des calibreurs professionnels pour les TV HD et on obtiendra donc les meilleurs réglages possible. Le principe est similaire à Burosch et on doit juste entrer le nom du modèle et le site affichera les réglages selon les différents besoins de l'utilisateur. Ce site est également une plateforme pour engager des calibreurs si c'est nécessaire. Enfin chaque année, ils vendent des DVDs qui compilent des réglages pour des centaines de téléviseurs et le prix est vraiment abordable. Le site explique que ces réglages ont été testés plusieurs fois, mais qu'ils ne garantissent pas un calibrage de TV HD effectué par un professionnel. Si vous pensez que les réglages proposés par le site ne vous conviennent pas, vous pouvez engager un calibreur le plus proche de chez vous.

 

Il arrive qu'on ait appliqué les réglages disponibles sur ces sites, mais qu'on doive les peaufiner pour un résultat optimal. De ce fait, on conseille de régler la luminosité, le contraste et la teinte du téléviseur. On doit effectuer de légères modifications et on doit tester l'image après chaque réglage. Des kits sont également disponibles pour calibrer sa TV HD. Certains constructeurs les fournissent gratuitement et on peut les brancher sur le port USB de son téléviseur. Si on utilise ce dernier dans un contexte professionnel, on peut acheter un outil de calibrage professionnel pour la meilleure qualité possible. La documentation qui accompagne ces outils permet de régler les différentes options dans les moindres détails.

 

Mots clés Technorati : ,

Comment fonctionne la TNT sur son ordinateur ?

 

La TNT (Télévision numérique terrestre) permet de recevoir jusqu'à 18 chaînes gratuites et la plupart des téléviseurs possèdent un tuner TV intégré. Si on veut recevoir la TNT sur son ordinateur, on doit posséder une carte Tuner TNT et un logiciel de décompression du format Mpeg2. On doit également vérifier que sa zone d'habitation est couverte par le réseau de la TNT avec des cartographies qui sont disponibles sur les sites spécialisés. On distingue trois types de carte Tuner TNT pour le PC : celle qui est au format PCMCIA, celle qui utilise le PCI ou celle avec une prise USB. Les cartes TNT au format PCMCIA sont les plus chères, mais l'avantage est qu'on peut les utiliser dans des ordinateurs portables et les Netbooks. La carte PCI est la plus abordable, mais il faut vérifier qu'on possède un emplacement vide dans son boîtier. De plus, on doit être expérimenté pour l'installer et la configurer. Enfin, des constructeurs proposent des modèles en USB qui sont les plus faciles à utiliser sans oublier qu'ils possèdent des options pour l'enregistrement de la vidéo.

 

Certains fournisseurs d'accès à internet intègrent également un Tuner TV dans leur box internet. C'est le cas de Neuf Telecom, mais on devra connecter le boîtier avec son antenne hertzienne pour recevoir la TNT sur son ordinateur dans les meilleures conditions. Il est à noter qu'une antenne à râteau suffit pour recevoir la TNT, mais si votre modèle est très ancien, on recommande d'en acheter une nouvelle qui sera plus performante. La plupart des utilisateurs se contentent d'acheter une carte Tuner TNT au format PCI, car c'est la moins chère. Pourtant, ses performances ne seront pas optimales à cause des interférences électriques. En effet, le signal risque d'être perturbé à cause de l'électricité statique qui est naturellement présente dans un boîtier de PC. De ce fait, on aura des erreurs de réceptions telles que le décalage du son par rapport à l'image ou une coupure du signal. La meilleure solution est d'acheter un boîtier Tuner TNT externe et des marques telles que Pinnacle ou Terratec sont les pionnières dans ce domaine. Leur principal avantage est qu'on bénéficiera d'une qualité de réception irréprochable sans oublier qu'on pourra enregistrer les émissions télévisées sur son ordinateur. D'autres modèles offrent la capacité du Time Shift qui permet d'arrêter temporairement une émission retransmise en direct. Le prix de ces boîtiers varie de 25 à 100 euros selon leurs options et leurs performances.

 

La TNT se généralise progressivement, mais on annonce déjà l'avènement de la TNT HD. Ainsi, des chaînes telles que TF1, M6 ou France Télévision vont transmettre certains de leurs programmes en haute définition sur le réseau TNT. Donc ce serait idéal si on pouvait recevoir la TNT HD sur son ordinateur. Le problème est que la TNT HD utilise le format vidéo Mpeg4 pour la transmission et que les cartes Tuner TNT classiques ne supportent que le format Mpeg2. De ce fait, on possède deux solutions, soit on achète une carte Tuner TNT HD, soit on met à jour les pilotes de son ancienne carte pour qu'elle puisse décoder le format Mpeg4. La première solution est la plus coûteuse, car ces cartes spéciales sont vendues à un prix qui dépasse les 100 euros. La seconde solution est beaucoup plus abordable puisque la mise à jour ne coûtera que quelques euros. Mais seuls quelques constructeurs proposent ces types de mise à jour et il faudra donc vérifier sur le site du fabricant de son modèle. Même si vous possédez une carte TNT HD, il faudra également vous équiper d'un logiciel qui puisse décoder le format Mpeg4, mais heureusement, la plupart des cartes graphiques récentes possèdent cette option. Cependant, on devra posséder au minimum un PC Dual Core pour effectuer cette décompression sans ralentir la machine.

 

Mots clés Technorati : ,

Réparer un disque dur endommagé

 

Un disque dur en panne peut avoir des causes d'origine logiciel ou matériel. Dans le premier cas, il existe de nombreux logiciels qui peuvent récupérer vos données supprimées. Mais il faudra recourir à une société spécialisée si le disque dur présente des dommages physiques.

Déterminer le type de panne pour le disque dur

Le disque dur est l'un des composants les plus sollicités du PC et donc, il peut tomber en panne au fil du temps. En premier lieu, on doit déterminer le type de panne avant de réparer un disque dur. Les pannes les plus fréquentes sont causées par des secteurs ou des blocs défectueux et si c'est votre cas, vous pouvez utiliser un logiciel pour détecter et réparer ces zones de disque dur. L'un des symptômes pour ce type de panne est que le système d'exploitation démarre sans problème, mais il bloque pour écrire ou lire des données. Un autre symptôme est que le système de plante après quelques minutes et il faut redémarrer l'ordinateur. Dans ce cas, on devra essayer l'utilitaire Microsoft Scan Disk de Windows.

Utiliser Microsoft Scan Disk  pour réparer son disque dur

L'utilitaire Microsoft Scan Disk permet de détecter et de réparer un disque dur endommagé. Il est disponible dans toutes les versions de Windows et sous Windows XP, il est situé dans le Gestionnaire des disques. Pour y accéder, faites un clic droit sur le poste de travail et sélectionnez « Gérer ». Ensuite, cliquez sur Gestion des disques pour afficher tous les lecteurs de votre ordinateur. Faites un clic droit sur celui qui est endommagé et sélectionnez Propriétés. Ensuite, vous allez dans l'onglet Outils et vous lancez la vérification des erreurs. Dans certains cas, l'ordinateur va redémarrer pour effectuer l'analyse et cela peut prendre plusieurs heures selon la taille de votre disque dur.

Réparer le disque dur avec l'utilitaire CHKDSK

La solution précédente peut fonctionner si vous arrivez à démarrer Windows, mais parfois, le système refuse de démarrer. Par exemple, vous démarrez la machine et cette dernière redémarre automatiquement pendant l'apparition du logo de Windows. De ce fait, vous ne pouvez pas utiliser l'analyse de disque dur et c'est pourquoi il faut passer par le CD d'installation de Windows XP pour réparer votre disque dur. Avant tout chose, vous devez configurer votre Bios pour que la machine démarre sur le lecteur de CD. Ensuite, insérez le CD de Windows XP et lancez la procédure d'installation. Cette procédure vous donnera le choix entre effectuer une nouvelle installation ou tenter de réparer une installation existante et vous devez choisir cette dernière. Une invite de commande DOS sera disponible et vous devez taper la commande « chkdsk » avec le nom du disque dur qui est endommagé. Cette étape est importante, car l'utilitaire CHKDSK n'est pas efficace quand on le lance sans aucun argument. Par exemple, votre lecteur endommagé est « C : » et donc, vous tapez la commande « chkdsk c : ». Dès le démarrage de l'analyse, vous verrez que l'utilitaire détecte et répare des zones défectueuses. Ces zones sont situées au début du disque dur et c'est pourquoi Windows n'arrive pas à démarrer. L'analyse peut prendre plusieurs heures, ensuite, retirez le CD de Windows XP et relancez l'ordinateur. Dans 90 % des cas, cette solution réglera le problème.

Le programme GetDataBack pour réparer son disque dur

GetDataBack est un logiciel payant pour réparer un disque dur endommagé. C'est l'un des meilleurs du marché, car il peut détecter et réparer toutes les zones du disque dur, mais il peut également corriger des erreurs de formatage. En effet, une erreur de formatage peut endommager le disque dur et donc, GetDataBack peut réparer ces erreurs. Par ailleurs, il peut également récupérer des fichiers que vous avez supprimés par accident. L'un des inconvénients de GetDataBack est que son analyse peut prendre des jours entiers, mais les résultats sont remarquables.

Recourir une société spécialisée pour réparer son disque dur

On doit garder à l'esprit qu'un logiciel est inefficace si votre disque dur présente des dommages physiques (chocs, chutes, rayures, etc.) De ce fait, on doit utiliser une société spécialisée dans la réparation des disques durs. Cette solution est la plus coûteuse, mais elle peut convenir aux entreprises qui ont perdues des données importantes et qu'elles ne possèdent aucune sauvegarde.

 

vendredi, avril 13, 2012

Qu’est-ce qu’un serveur dédié ?

 

Un serveur dédié fait partie des meilleures solutions d’hébergement web sur le marché. En fait, c’est le must pour un webmestre, et pour un blogueur, c’est l’achèvement et la gloire d’une carrière s’il a besoin d’un serveur dédié pour son blog. Pour faire simple, un serveur dédié est un ordinateur sur lequel vous hébergez les fichiers de votre site ou de votre blog. Le nom de serveur dédié vient du fait que vous êtes le seul propriétaire de la machine et que vous pouvez le configurer selon vos besoins. L’hébergeur web offre une machine vide avec des configurations variables selon votre budget et vous devez installer tous les composants d’un serveur web. Pour comprendre pourquoi, le serveur dédié est la meilleure solution pour créer son site internet, on doit connaitre les deux autres solutions d’hébergement web les plus populaires, à savoir, l’hébergement web mutualisé et le VPS (Virtual Private Server).

90 % des webmestres utilisent l’hébergement web mutualisé, car c’est le moins cher et il ne nécessite aucune connaissance en administration web. Toutes les offres que vous voyez sur les hébergeurs web concernent principalement les hébergements mutualisés qui sont disponibles à partir de quelques euros par mois. Le principe de l’hébergement web mutualisé est qu’une machine héberge plusieurs dizaines, voir des centaines de sites en même. Donc, les ressources de mémoire, de CPU et de bande passante de la machine sont partagées entre ces différents sites. Si vous visitez un site qui est très lent à charger, alors vous pouvez être certain qu’il utilise un hébergement web mutualisé.

Le VPS est un serveur privé virtuel. Il ressemble au serveur dédié sur bien des aspects, mais son principal atout est que toute la maintenance est assurée par l’hébergeur web. Le propriétaire du VPS n’a pas besoin d’installer les composants, mais cela peut aussi devenir un inconvénient quand on crée des plateformes ou des applications web spéciales qui nécessitent des éléments précis. Le VPS convient pour des webmestres qui veulent juste héberger plusieurs sites et bénéficier d’une performance optimale pour chacun d’eux. Le prix des VPS est aussi variable selon la configuration que vous choisissez, mais ils sont parfois plus chers que le serveur dédié qui est simplement une machine vide.

De ce fait, le serveur dédié est à la charge du webmestre, l’hébergeur web lui propose une machine avec un système d’exploitation, généralement, Linux, et c’est à lui de tout installer et configurer. L’installation et la configuration d’un serveur dédié est difficile, car on devra s’occuper du serveur web, de la base de donnée, du cPanel, du SSH, etc. Une maitrise de la ligne de commande est nécessaire pour effectuer la plupart des tâches. Cependant, le serveur dédié offre une grande souplesse au webmestre, ainsi, il peut l’utiliser pour héberger un serveur de jeu, une application, un réseau social ou d’autres services web spécialisés. Il va de soi qu’on peut héberger des centaines de sites en même temps sur un serveur dédié.

 

jeudi, avril 12, 2012

Mettre à jour SPIP 2 vers SPIP 3

 

La mise à jour de SPIP 2 vers SPIP 3 est un jeu d’enfant, mais je vous donne quand même les étapes à suivre. Premièrement, je préfère toujours la mise à jour manuelle parce qu’elle vous permet de tout contrôler. Une mise à jour en ligne est aussi efficace, mais une coupure de connexion ou de courant peut poser des problèmes. Par ailleurs, les deux méthodes sont équivalent en facilité ou en rapidité.

Imaginons que vous avez un site sous SPIP 2.1.10 et donc, vous devez d’abord télécharger SPIP 3 en bêta. Ensuite, vous devez simplement copier les fichiers de SPIP 3 vers votre site sous SPIP 2 en confirmant l’écrasement des fichiers.

mettre-jour-spip2-spip3_1

 

mettre-jour-spip2-spip3_2

 

Une fois que vous avez copié tous les fichiers de SPIP 3, vous rechargez la partie Privée de votre SPIP 2 et vous verrez le message suivant :

mettre-jour-spip2-spip3_3

 

En effet, SPIP 3 fonctionne sur une base de donnée différent que SPIP 2 et donc, il est nécessaire de la mettre à jour. La mise à jour concerne à la fois les fichiers de SPIP et la base de donnée proprement dite. Après quelques minutes, le nouveau site sous SPIP 3 devrait apparaitre :

mettre-jour-spip2-spip3_4

 

 

J’ai fait une mauvaise manipulation pendant la mise à jour de SPIP 3 (j’ai cliqué sur le bouton Arrêt du navigateur pendant la mise à jour de la base, et je pense que cela a perturbé l’ordre de mes articles dans la partie Privée). Mais sinon, tout fonctionne nickel. Si vous voyez une erreur 404 quand vous cliquez sur vos articles dans la partie Publique, vous devez renommer le fichier htaccess.txt en .htaccess en spécifiant le chemin du répertoire de votre site si c’est nécessaire (dans le Rewritebase). Notez également que vous perdrez également vos URL avec le couteau suisse, notamment si vous avez ajouté un suffixe numérique à la fin, mais on peut réinstaller le couteau suisse, modifier de nouveau les urls et faire une mise à jour de ces dernières.

 

C’est toujours une bonne habitude d’avoir un site local qui reflété son site en production pour apporter les changements nécessaires. Si vous n’avez pas de site local, je vous conseille d’en créer un avant la mise à jour de SPIP 2 vers SPIP 3. En résumé, voilà ce que vous devriez faire :

  • Créer un site local sous SPIP 2 (de la même version que votre site de production)
  • Télécharger la base de donnée de votre SPIP 2 en ligne
  • Installer cette base sur le site local
  • Mettre à jour le site local sous SPIP 2 vers SPIP 3
  • Enfin, utilisez la base de donnée mise à jour du site local pour créer un nouveau site SPIP 3 en ligne

 

Il est vrai que cette méthode prend plus de temps, mais elle est beaucoup plus sûr. J’ignore si tous vos plugins de SPIP 2 seront déjà disponibles pour SPIP 3, donc vérifiez-le avant la mise à jour.

 

Ajouter une description de vos articles sur Blogger

 

Blogger est un très bon outil de blog, mais il n’offre pas la possibilité de créer des descriptions pour les articles. Les descriptions sont très importantes pour référencer son blog, car il s’agit du texte qui apparait sous le lien dans la page des résultats du moteur de recherche.  Par exemple, une bonne description ressemble à la suivante :

description-blogger

Si vous utilisez Windows Live Writer pour publier sur Blogger, vous pouvez facilement ajouter une description à vos articles de Blogger en passant en mode Code dans Affichage. Au début de l’article, vous insérez votre description d’article de Blogger avec la balise meta :

 

<meta name=”description” content=”Exemple de balise meta pour la description d’un article sur Blogger” />

Ne mettez pas de balise HTML dans le texte en guillemets parce que Blogger ne pourra pas l’interpréter. Cette astuce fonctionne avec Windows Live Writer, mais elle doit marcher dans l’éditeur d’articles de Blogger en mode Code HTML. Mais je n’ai pas testé.

 

mardi, avril 10, 2012

Installer le serveur web ultime sous Linux

 

L’installation d’un serveur web sous Linux est un jeu d’enfant du moment qu’on connait nos besoins sur nos sites web. On entend beaucoup parler du serveur web d’Ubuntu 12.04 qui parait-il est très stable et qu’il pourrait même détrôner Redhat. Une chose dont j’en doute fort, mais qui sait ? Selon le guide d’Ubuntu, un serveur web ultime sous Linux posséderait les composants suivants :

  • Deux sites sous Drupal 6
  • Une installation avec Moodle qui permet l’hébergement de cours en ligne. Il peut aussi être utilisé avec un composant pour les séminaires web (webinars).
  • BigBlueButton – Un logiciel pour faire des conférences audio et vidéo sans oublier un partage de bureau. Il a été développé par GoogleCode et tous ses modules sont sous Open Source.
  • Un bureau graphique tel que KDE ou Gnome – Evidemment, de nombreux puristes utilisent Ubuntu Server en mode console, mais on peut y ajouter facilement des environnements graphiques pour faciliter les tâches d’administration.
  • Une adresse DNS dynamique – Si vous possédez un ordinateur à la maison et que vous voulez installer un serveur web Linux dessus, il faut que votre adresse IP reste statique pour que l’ordinateur soit accessible à partir du web. En effet, l’adresse DNS est liée à une adresse IP et celle-ci doit rester la même. Si vous avez la chance de posséder une adresse IP statique, alors vous n’aurez aucun problème à installer un serveur web sous Linux et le rendre facilement accessible. Mais si vous possédez une adresse IP dynamique comme dans la majorité des cas, il vous faut utiliser un service d’adresse DNS dynamique pour refléter les changements.

Ce sont les composants pour installer un serveur ultime sous Linux, et si j’en ai le temps, j’aborderais l’installation du serveur web Linux dans un autre article. En théorie, ce serveur web ultime devrait répondre à tous les besoins d’un webmestre.

 

lundi, avril 09, 2012

Installer Linux avec Virtualbox sur Windows, le guide complet

 

 

Virtualbox pour Windows

 

Installer Linux avec VirtualBox possède ses avantages et ses inconvénients. Il y a une version gratuite propriétaire et une version payante pour les entreprises. La version gratuite de Virtualbox pour Windows permet d’installer uniquement les systèmes 32 bits tandis que la version payante supporte les systèmes 64 bits, mais les deux nécessitent une inscription sur le site. Il existe également une version Open Source de VirtualBox, mais son installation n’est pas facile. Virtualbox est disponible pour toutes les plateformes telles que Windows, Linux ou Mac. Par ailleurs, une machine virtuelle crée dans un système d’exploitation peut être utilisé dans un autre. De même, il est possible de convertir des machines virtuelles crées avec Virtualbox pour les convertir vers VMWare.  L’une des principales raisons pour installer Linux avec Virtualbox sur une machine sous Windows est qu’on veut juste tester le système sans tout chambouler.

 

Installer Virtualbox sur Windows

 

  • Téléchargez Virtualbox et installez-le comme n’importe quel programme Windows.
  • Lancez Virtualbox depuis le menu Démarrer à partir Sun Virtualbox/VirtualBox. (Vous pouvez mettre le raccourci de Virtualbox dans le dossier Démarrage pour que Windows lance automatiquement Virtualbox à chaque démarrage.
  • Ensuite, cliquez sur VirtualBox/New/Next et nommez la machine virtuelle UbuntuVirtualServer (j’ai choisi Ubuntu, mais vous pouvez utiliser le nom que vous voulez). Dans Système d’exploitation, mettez Linux et dans version, mettez Ubuntu.
  • Ensuite, vous devez configurer la quantité de RAM pour installer Linux avec Virtualbox sur votre Windows et mettez 1024 Mo. La RAM est très importante pour installer Virtualbox pour qu’il fonctionne correctement avec Linux et Windows. Ce dernier nécessite toujours au minimum 1 Go de RAM. De plus, la quantité de RAM que vous allouez à la machine virtuelle ne sera pas disponible pour Windows. Si par exemple, vous avez 3 Go de RAM sur votre machine, mettez 1 Go pour la machine virtuelle et il en restera 2 Go pour Windows. En général, Linux peut fonctionner avec 512 Mo, notamment si vous utilisez la version Server.
  • Cliquez sur Next/Virtual Hard Disk :
    • Boot Hard Disk (Primary Master): (coché)
    • Create new Hard Disk : coché
  • Next (deux fois) et mettez Dynamically expanding storage dans Hard disk storage type
  • Cliquez sur Next et Virtual Disk Location and Size et sélectionnez UbuntuVirtualServer  dans location. Mettez 8 Go dans Size.

Un linux nécessite 8 Go pour la version Server, mais il faudra prévoir 20 Go si vous installez Linux avec Virtualbox sur Windows en utilisant Kubuntu ou un autre environnement graphique. Cependant, la machine virtuelle étendra automatiquement la taille si c’est nécessaire puisque nous l’avons spécifié. Et voilà, vous venez d’installer et configurer une machine virtuelle sous Windows et vous pouvez créer plusieurs machines virtuelles de la même manière. En fait, vous pouvez lancer plusieurs machines virtuelles en même temps si vous avez les ressources nécessaires.

 

Installer Linux avec Virtualbox sous Windows

 

Maintenant, nous allons installer Linux avec Virtualbox dans notre Windows. Pour plus de facilité et de rapidité, nous installerons Ubuntu Server. L’une des raisons est que ce dernier possède une version spécialement conçue pour les machines virtuelles. Téléchargez Ubuntu Server et sauvegardez l’image ISO ou gravez-le sur un CD. Notez que vous devez sélectionner la version 32 bits d‘Ubuntu Server puisque nous utilisons la version gratuite de Virtualbox. Pour installer Linux avec Virtualbox, lancez la machine virtuelle en allant dans le menu Démarrer/Virtualbox/UbuntuVirtualServer  (le nom de votre machine) et cliquez sur Start.

Un assistant demandera le média d’installation et vous pouvez indiquer le lecteur de CD (au cas où vous avez gravé l’image ISO) ou vous pouvez cliquer sur le bouton Parcourir pour sélectionner directement l’image ISO de Linux. Et cliquez sur Next pour installer Linux avec Virtualbox. Les étapes suivantes sont identiques à une installation classique de Linux sauf que vous devez choisir l’option machine virtuelle comme le mode d’installation. Ainsi, appuyez sur F4 et sélectionnez Install a minimal virtual machine.

Pendant la partition du disque dur pour installer Linux avec Virtualbox, utilisez le disque dur en totalité. Cela utilisera tout l’espace de la machine virtuelle, soit 8 Go. Ensuite, l’installation d’Ubuntu Server continuera et vous aurez un système tout à fait fonctionnel avec Virtualbox sur votre machine Windows et le plus beau est qu’on ne courra aucun risque en cas de problème.

 

Installer un serveur LAMP

 

Un serveur LAMP indique un système Linux qui possède les composants de base pour un serveur web. Ainsi, le sigle LAMP signifie Linux, Apache, MySQL et PHP qui sont les principaux composants d'un serveur web qui utilise des sites dynamiques.

La meilleure solution pour installer un serveur LAMP (Ubuntu) :

sudo apt-get install tasksel
sudo tasksel install lamp-server

Notez que durant l'installation du serveur LAMP, un mot de passe pour MySQL sera automatiquement crée. Vous aurez besoin de ce mot de passe quand vous installerez des composants qui nécessitent MySQL (c'est le cas de la plupart des CMS tels que Drupal ou Wordpress). Nous vous recommandons de noter ce mot de passe dans un endroit facilement accessible, mais assez sécurisé pour qu'il ne soit pas piraté. Dans le cas où vous installez un serveur LAMP pour créer votre propre serveur Web, vous n'aurez pas souvent besoin de la machine. De ce fait, notez toutes les informations sensibles concernant votre serveur web dans l'intérieur de votre boitier et verrouillez-le.

L'installation d'un serveur LAMP n'est pas toujours suffisante pour profiter de toutes les fonctionnalités d'un serveur web moderne. c'est pourquoi, vous pourrez choisir l'installation d'autres serveurs tels qu'un serveur de mail (Postfix), un serveur DNS (Bind9), le serveur OpenSSH, le serveur Tomcat, le serveur d'imprimante et Samba pour le serveur de fichiers sans compter une machine d'hôtes virtuels avec Xen. Toutefois, vous devez faire attention pendant l'installation de ces composants si vous travaillez dans une machine de groupe, car ils peuvent entrer en conflit avec d'autres services sur le réseau.

 

Mots clés Technorati : ,

La virtualisation d'un serveur, c'est quoi ?

 

La virtualisation d'un serveur permet de simuler plusieurs systèmes sur une seule machine. Actuellement, quelques entreprises dominent le marché de la virtualisation de serveur et on peut citer Microsoft, Citrix et évidemment VMWare. La plupart des entreprises utilisent VMWare parce qu'il est présent dans le secteur de la virtualisation depuis plusieurs années et qu'il se concentre uniquement sur ces produits. Mais on peut se demander pourquoi les entreprises doivent utiliser la virtualisation d'un serveur ? Le fait qu'une étude a montrée que 95 % des entreprises en France n'utilisent que 15 % de leurs parcs informatique. De ce fait, ils gaspillent 85 % de leurs ressources en achetant de nouveaux systèmes pour chaque nouveau besoin.

De ce fait, la virtualisation d'un serveur permet d'économiser beaucoup de ressources puisqu'on peut installer des dizaines de composants sur une seule machine. Avec la montée du Cloud et le fait que de nombreuses sociétés possèdent leurs propres Data Center ou leur service de Clustering, la virtualisation d'un serveur devient une nécessité. Son installation et sa configuration sont accessibles à n'importe quel administrateur système et on peut le déployer sur la plupart des systèmes d'exploitation même si Linux ou Unix sont les meilleurs grâce à leur gestion optimale des ressources de la machine.

 

Mots clés Technorati : ,

Virtualisation d'applications, comment faire et pourquoi ?

 

La virtualisation d'applications est passée d'une mode d'utilisation occasionnelle à une vraie solution à la fois pour les particuliers et les entreprises. En résumé, la virtualisation d'applications permet de faire fonctionner plusieurs programmes ou systèmes d'exploitation sur une seule machine afin d'économiser les ressources et le budget d'une entreprise. Et la virtualisation d'applications est idéale pour les entreprises qui partagent souvent les mêmes ressources sur plusieurs services. Cela facilite la gestion et la maintenance sans compte que l'économie sur le budget est vraiment intéressante.

L'une des solutions les plus populaires de la virtualisation d'applications est VMWare. C'est une plateforme commerciale de virtualisation d'applications qui propose deux solutions gratuites, à savoir, VMVare Player et VMWare Server. Ce dernier est actuellement disponible sous une licence qu'on doit renouveler annuellement. VMWare Player peut utiliser des périphériques virtuels existants tandis que VMWare Server permet de créer des machines virtuelles. En général, nous recommandons que vous utilisiez VMWare Server dans la plupart des cas sauf si votre objectif étant de faire fonctionner quelques périphériques virtuels. Les entreprises ou les utilisateurs qui ont besoin de serveur ou de process qui doivent être disponibles sur un réseau à partir d'une machine virtuelle doivent utiliser VMWare Server. Si vous voulez installer un nouvel système d'exploitation sur une machine virtuelle, vous aurez aussi besoin de VMWare Server.

 

Mots clés Technorati : ,

La virtualisation d'applications Microsoft

 

La virtualisation d'applications Microsoft vous permet de faire tourner tous les programmes Microsoft sous d'autres systèmes d'exploitations. Pendant de nombreuses décennies, Microsoft détenait le monopole des systèmes d'exploitation et des applications. L'hégémonie était telle que la plupart des meilleurs programmes étaient disponibles pour Microsoft et les autres systèmes pouvaient toujours courir et on peut citer Linux ou Unix. Il y a quelques années, la virtualisation d'applications Microsoft est devenu populaire grâce aux nombreux outils disponibles gratuitement.

Cependant, on confond souvent l'émulation avec la virtualisation des applications Microsoft. Si vous utilisez Wine  sous Linux, vous émulez le fonctionnement du programme sous Linux. La virtualisation permet de simuler plusieurs systèmes d'exploitations sans devoir installer séparément chaque système. Si vous voulez juste virtualiser des applications Microsoft sous Linux, la meilleure solution est d'utiliser Wine qui est disponible dans la plupart des distributions. Mais il faudra passer par la virtualisation si vous voulez simuler Windows dans votre Linux sans devoir tout installer. L'un des meilleurs outils pour la virtualisation d'applications Microsoft est VirtualBox qui est disponible gratuitement sous Linux. On peut l'installer avec la commande apt get install ou utiliser la version pour Windows si vous utilisez ce dernier comme votre système principal et que vous voulez aussi bénéficier de Linux ou d'un autre système d'exploitation.

Toutefois, il y a des inconvénients à la virtualisation d'applications Microsoft et le principal est que ce ne sera jamais aussi performant qu'une vraie installation. On utilise la virtualisation d'application pour tester les programmes et non pour les utiliser au quotidien.

 

La virtualisation avec Redhat

 

La virtualisation avec Redhat permet d'obtenir un système sûr et fiable dans toutes les conditions. Redhat propose son son propre système de virtualisation avec RHEV (Redhat Virtualisation), la dernière version étant la 3.0. La virtualisation avec Redhat est disponible pour les postes de travail (Bureau), mais également pour les serveurs. L'avantage de la virtualisation de Redhat est qu'elle est disponible en Open Source comparée aux programmes propriétaires qui nécessitent un budget conséquent. La virtualisation de Redhat vous permet de virtualiser tous les systèmes dans les entreprises à des prix défiant toute concurrence. Et on bénéficiera d'un support optimal grâce à la communauté de l'Open Source.

Pour télécharger Virtualisation Redhat, vous devez posséder un abonnement à Redhat et la moins chère commence à 349 euros pour atteindre les milliers d'euros selon la solution que vous choisissez. Notez que n'importe quel abonnement vous donne accès à la virtualisation Redhat et même que vous pouvez télécharger une version de démonstration. On peut arguer le fait sur la dépense occasionnée par la virtualisation de Redhat alors qu'il existe des solutions gratuites. Le fait est que Redhat Virtualisation 3.0 est bien plus performant que n'importe quel programme gratuit.

 

Installer Virtualbox sous Ubuntu

 

Comment installer facilement Virtualbox sous Ubuntu ? VirtualBox vous permet d'installer plusieurs systèmes d'exploitations sans passer par l'installation physique ce qui permet de tester de nombreux systèmes avec le minimum de risque. Pour installer VirtualBox sous Ubuntu, entrez la commande suivante :

sudo apt-get install virtualbox-ose virtualbox-ose-source virtualbox-guest-additions

Pour installer la version Qt de VirtualBox si vous installez VirtualBox sous Kubuntu :

sudo apt-get install virtualbox-ose-qt

VirtualBox pour Ubuntu sera disponible sous votre menu.

Cette installation de Virtualbox pour Ubuntu concerne uniquement la version libre, mais il existe des versions propriétaires qui possèdent des options supplémentaires tels qu'une interface USB. Pour installer une version propriétaire de VirtualBox sous Ubuntu, entrez les commandes suivantes :

wget -q http://download.virtualbox.org/virtualbox/debian/oracle_vbox.asc -O- | sudo apt-key add -

Ajoutez la liste de chaîne du paquet à votre liste et mettez à jour :

echo "deb http://download.virtualbox.org/virtualbox/debian maverick non-free" | sudo tee /etc/apt/sources.list.d/virtualbox.list
sudo apt-get update

Ensuite, vous pouvez installer VirtualBox sous Ubuntu  comme d’habitude:

sudo apt-get install virtualbox

 

vendredi, avril 06, 2012

Référencement : Les changements du moteur de recherche de Google pour mars 2012

 

Chaque mois, Google procède à plusieurs mises à jour sur son moteur de recherche afin d’affiner les résultats. Voici les 44 changements de l’algorithme de Google pour mars 2012.

 

  1. Autocomplet pour les symboles mathématiques – Nommé Blackbord, ce changement de Google inclut les symboles mathématiques dans la recherche. Parmi ces symboles, on peut citer : +, –, *, /, ^, (), =. Cela permet, par exemple, de chercher des résultats sur des formules mathématiques tel que e=mc² ou y=mx+b.
  2. Amélioration sur la gestion de l’indexage des symboles – Autrefois, les symboles de ponctuation étaient ignorés par Google, mais désormais, ils sont pris en compte et on peut citer %, $, \, ., @, #, +, et d’autres symboles seront inclus à l’avenir.
  3. Une meilleure notation des actualités par groupe – Google réunit les actualités par groupe et ce changement offre une meilleur notation pour avoir des résultats plus performants et plus fiables sur une requête donnée.
  4. Des Sitelinks plus rapides – Google utilise les Sitelinks pour proposer des liens vers les différentes rubriques d’un site pour offrir une meilleure expérience à l’utilisateur. Le changement de Google accélère la mise à jour de ces Sitelinks qui prenaient autrefois plusieurs semaines.
  5. Amélioration technique sur l’Autocomplet – Ce changement accélère le traitement de l’Autocomplet de Google. C’est beaucoup plus rapide et moins gourmand en bande passante.
  6. Une meilleure gestion des changements des mots de passe – Ce changement s’assure que toutes les modifications de vos mots de passe sont bien répercutés sur votre recherche.
  7. Une meilleure indexation des pages de profil – Ce changement offre une meilleure indexation de vos pages profil. Ainsi, il peut reconnaitre plus de 200 réseaux sociaux.
  8. Nouvelle interface pour les actualités globales – Ce changement offre une meilleure expérience dans la lecture de l’actualité globale. Ainsi, le meilleur article est affiché avec une plus grande police de caractère tandis que les grandes images et les informations de l’auteur sont aussi mieux affichées.
  9. Amélioration des résultats sur la recherche par navigation – La recherche par navigation indique celle que vous effectuez sur un site en particulier, par exemple Wikipedia. Ce changement permet d’améliorer cette recherche, par exemple, si vous ne connaissez pas l’URL précise de l’article.
  10. Mise à jour des sites de qualité (Google Panda) et du rafraichissement de contenu – Une petite mise à jour de Google Panda pour détecter de nouveaux sites de qualité, mais dont le contenu est aussi renouvelé périodiquement. La qualité du site dépend du contenu, mais aussi des changements techniques dans l’amélioration de l’expérience d’utilisateur.
  11. Résultat Live pour la Ligue des Champions et la KHL – Désormais, des Snippets montrent les résultats en direct de la Ligue des champions et de la KHL (La ligue de Hockey Russe). D’autres résultats Live sont disponible pour la NFL ou la NBA. Une avancée pour la recherche sémantique ?
  12. Recherche sur le tennis – Dans la même optique, on peut également obtenir les résultats Live sur le tennis. Tapez un nom de joueur ou une compétition de tennis pour obtenir des infos en Live. Google veut dominer les résultats du sport par son propre contenu.
  13. Des résultats plus pertinents sur les images – Une recherche pour avoir les meilleures images. Ce changement de Google permet de trouver de belles images même si elles sont sur des pages de faible qualité.
  14. De meilleures images sur toutes les langues – De même, l’Autocomplet offre de meilleurs résultats sur tous les langages alors que c’était uniquement disponible pour l’anglais.
  15. Peaufinage de l’option Safesearch des images – L’option Safesearch de Google Images a été peaufinée pour que les utilisateurs ne voient pas du contenu pour adulte. De nouveaux moyens permettent désormais de détecter ce type de contenu.
  16. Désactivation du critère des ancres de texte – Un changement important sur Google est qu’il ne compte plus les ancres de texte parmi ces critères. Au lieu, il utilisera d’autres méthodes pour connaitre la valeur. Ces nouvelles méthodes n’ont pas été communiquées.
  17. Simplification dans les images globales – Des améliorations pour simplifier le code pour les images. Egalement des améliorations pour offrir de meilleurs résultats sur ces images.
  18. Un meilleur classement et interface sur les mobiles – Quand vous cherchez des applications pour votre mobile, les résultats afficheront l’icône de l’application, sa popularité, son prix et des liens de téléchargements. Les résultats dépendront également du téléphone que vous utiliserez (iOS, Android, etc).
  19. Amélioration pour afficher les vidéos les plus récentes – Des options pour détecter les vieilles vidéos pour les remplacer par du contenu plus récent.
  20. Moins de synonymes non-pertinents – Un changement sur Google est que vous aurez moins de synonymes non-pertinents de vos requêtes. Cela évitera d’afficher du contenu qui n’a aucun rapport avec la requête.
  21. Une meilleure gestion des requêtes sur des objectifs locaux et de navigation – Certaines requêtes ont des objectifs localisés ou liées à une navigation (connecté directement vers un site). Ce changement de Google permet de balancer les deux types de résultats pour une meilleure efficacité.
  22. Amélioration sur la mise à jour Freshness – Il y a quelques moins, Google a introduit la mise à jour Freshness pour privilégier le contenu récent, mais le résultat n'était pas satisfaisant et consommait beaucoup trop de ressources. C’est pourquoi, ce changement de Google concentre cette mise à jour uniquement sur certaines types de requêtes.
  23. Amélioration pour détecter des sites de qualité – Depuis longtemps, une mise à jour de Google classifie les sites de qualité sur le long terme. Ce changement offre une meilleure fiabilité sur cette classification.
  24. Une meilleure interprétation et utilisation des ancres de texte -  Google a amélioré la manière dont il interprète et utilise les ancres de texte. Cela permet de déterminer la pertinence de cette ancre de texte en fonction de la requête ou du site.
  25. Amélioration sur les actualités locales – Ce changement améliore considérablement les nouvelles localisées en trouvant de meilleures sources.
  26. Désactivation d’un signal sur Google Actualité – Google ne considère plus un critère qui permettait d’évaluer la pertinence des articles de Google Actualité. Ce critère n’était pas performant.
  27. Une meilleur gestion des synonymes – Google utilise beaucoup les synonymes pour proposer des résultats similaires, mais ce n’est pas toujours satisfaisant. Ainsi, le synonyme de chat pourrait être animal ou fourrure. Le problème est que ces synonymes sont trop généraux pour être efficace. Ainsi, le mot chien fait aussi référence à animal et fourrure et de ce fait, quelqu’un tapant chat obtiendra chien comme résultat. Ce changement de Google permet d’éviter cette généralisation des synonymes.
  28. Une meilleure précision et performance des synonymes – Dans la même optique, les synonymes sont désormais plus précis pour éviter des résultats non-pertinents qui entreraient dans la même catégorie de la requête. L’un des objectifs de ce changement est de supprimer la duplication par la logique.
  29. Peaufinage pour l’affichage des résultats – Google a amélioré son système pour identifier des termes qui ne sont pas nécessaires pour retrouver le document correspondant. Cela permet d’avoir des requêtes qui afficheront uniquement des résultats fiables.
  30. Des synonymes moins agressifs – Certains utilisateurs se sont plaint à Google que certains de ses synonymes étaient trop agressifs. Ainsi, les résultats affichent parfois des synonymes qui n’ont aucun rapport avec la requête. Ce changement permet de réduire ce problème.
  31. Mise à jour du contenu géographique – Ce changement affecte  les signaux qui se basent sur la localisation géographique comme les services de Google Maps et Google Earth.
  32. Une meilleure détection des noms propres – Un changement pour mieux détecter les noms propres, notamment les célébrités.
  33. Mise à jour des résultats personnalisés – Certains changement de signaux sur les résultats personnalisés.
  34. Amélioration dans la pertinence de la recherche d’images – D’autres signaux ont étés ajoutés pour détecter des images d’une dimension raisonnable sur les landing pages de haute qualité.
  35. Suppression d’un signal lié à la pertinence du site – Google a supprimé un signal sur la pertinence des produits sur un site.
  36. Une meilleure détection des pages obsolètes – De nombreux changements pour détecter les pages qui ne sont pas modifiées depuis plusieurs années. Ainsi, ils disparaitront progressivement des résultats des utilisateurs.
  37. Une meilleure détection des langues dans l’Autocomplet – En général, l’Autocomplet se base sur la langue d’affichage pour afficher les résultats sur une langue donnée. Pour de nombreux langages, Google tente de deviner la langue dans la requête et ce changement est désormais disponible pour le Chinois, le Coréen et le Japonais.
  38. Amélioration pour détecter les dates sur les articles de forums et de blogs  - Une meilleure détection sur les dates concernant les articles de forums et de blogs.
  39. Plus de résultats sur l’Autocomplet avec la réécriture – Ce changement Google réécrit certaines requêtes à la volée pour afficher plus de résultats. Les synonymes sont utilisés entre autre. La réécriture peut inclure l’ajout, la suppression ou la réorganisation d’un terme dans la requête.
  40. Des Sitelinks étendus pour le mobile – Les Sitelink étendus sont désormais disponibles pour les pages pour mobile.
  41. Des réponses rapides plus précis – Google répond parfois à l’internaute avec des Snippets grâce à sa base de donnée Freebase. Ce changement corrige quelques bugs et offre plus de précision.
  42. Migration des options de recherche pour la vidéo – Google a migré certaines des options sur la recherche avancée de vidéo vers le moteur de recherche principal.
  43. Le bouton +1 dans plus de pays et de domaines – Le bouton +1 est désormais disponible dans des résultats de nombreux langages et de domaines. L’avantage du bouton +1 est qu’on bénéficie de recommandation sur mesure sur ses requêtes, car les internautes qui utilisent ce bouton+1 sont dans la même thématique.
  44. Rafraichissement des résultats sur les tablettes – L’interface d’utilisateur pour les résultats locaux a été mise à jour pour la rendre plus compacte et facile à lire.

Chaque mois, Google publie les changements de son moteur de recherche sur le blog InsideSearch