Site web : 5 points (très) techniques que nous mettons en place pour chaque site internet Au fil du temps, notre expérience dans le domaine du web n'a cessé d'évoluer. On le sait tous, le monde du digital avance vite. Très vite. Il faut donc constamment être à la pointe de la technologie et faire face aux nouveautés. Notre expérience nous a permis de développer, pour la création de nos sites internet, 5 points techniques que nous mettons en place pour chaque client afin de leur fournir un travail de qualité. Redirection 301 des anciennes URL vers les nouvelles avec .htaccess Pour chaque site internet, Google indexe au fil du temps toutes ses pages. Chacune de ces pages obtient des liens, et surtout, une certaine notoriété en termes de référencement naturel. Lors de la refonte d’un site web, toutes ces pages changent de nom, et d’URL. Les anciennes pages ne sont donc plus disponibles et l’indexation acquise est perdue. Pour contrer ce problème, nous listons toutes les pages indexées. Pour chacune d’entre elles, nous installons des redirections 301 en .htaccess. De ce fait, toutes les anciennes URL sont redirigées vers les nouvelles. Il n’y a donc pas de perte en référencement. Mise en place d'un système de backup automatisé Sur chaque hébergement, nous avons installé un système de sauvegarde journalière. En cas de bug, de plantage ou de DRP (Disastry Recovery Plan), nous sommes capables de restaurer une mise à jour récente de chaque site web rapidement. Pour des raisons de sécurité, ces sauvegardes sont stockées sur des serveurs situés dans un autre datacentre que celui qui héberge nos sites internet. Ce datacentre est situé en Suisse, à Genève. Mise en place de données structurées L’intelligence artificielle de Google n’est pas si intelligente que cela … Pour chaque contenu, il faut indiquer à Google de quel type de contenu il s’agit. Par exemple, dans un texte, je peux citer le nom d’une personne. Google sera incapable de savoir que cette partie de texte est un nom. Il faut donc lui le montrer. Pour cela, Google, Yahoo, Bing, et plus récemment Yandex ont joint leurs forces pour créer schema.org. Dans le texte de nos sites web, nous insérons des balises schema.org afin de montrer aux moteurs de recherche de quel contenu il s’agit. Il peut s’agir du titre d’un produit, de sa description, d’un prix, d’un numéro de téléphone, d’une adresse… Le but de cette manœuvre est d’améliorer le référencement de nos sites web. Qualité des pages testée pour le W3C OK, soyons clairs, la qualité du codage influence peu le référencement naturel d’un site. Cependant, nous sommes persuadés que le web de qualité passe par des sites web bien codés. Dans le fait, peu d’agence web fournissent à leurs clients des sites web de qualité dont le code source de chacune des pages est valide au W3C. C’est clairement une plus-value importante aux sites internet que nous réalisons dans notre agence. Le protocole Opengraph Créé par Facebook en 2010, l’Opengraph est une série de balises qui permettent aux sites internet de choisir qu’elle est l’image, le titre et l’URL qui apparait sur les réseaux sociaux lors d’un partage d’une page web. Tous les sites internet que nous créons possèdent ces balises. Dans notre interface d’administration, il est même possible de les modifier. 2021-07-06 12:00:00 https://www.defaweux.be/upload/agence-web-defaweuxbe-43cc7c-large.png
Nos services

Publié le mardi 06 juillet 2021. Temps de lecture : 5 minutes

Site web : 5 points (très) techniques que nous mettons en place pour chaque site internet

Site web : 5 points (très) techniques que nous mettons en place pour chaque site internet

Au fil du temps, notre expérience dans le domaine du web n'a cessé d'évoluer. On le sait tous, le monde du digital avance vite. Très vite. Il faut donc constamment être à la pointe de la technologie et faire face aux nouveautés.

Notre expérience nous a permis de développer, pour la création de nos sites internet, 5 points techniques que nous mettons en place pour chaque client afin de leur fournir un travail de qualité.

Redirection 301 des anciennes URL vers les nouvelles avec .htaccess

Pour chaque site internet, Google indexe au fil du temps toutes ses pages. Chacune de ces pages obtient des liens, et surtout, une certaine notoriété en termes de référencement naturel.

Lors de la refonte d’un site web, toutes ces pages changent de nom, et d’URL. Les anciennes pages ne sont donc plus disponibles et l’indexation acquise est perdue. Pour contrer ce problème, nous listons toutes les pages indexées. Pour chacune d’entre elles, nous installons des redirections 301 en .htaccess. De ce fait, toutes les anciennes URL sont redirigées vers les nouvelles. Il n’y a donc pas de perte en référencement.

Mise en place d'un système de backup automatisé

Sur chaque hébergement, nous avons installé un système de sauvegarde journalière. En cas de bug, de plantage ou de DRP (Disastry Recovery Plan), nous sommes capables de restaurer une mise à jour récente de chaque site web rapidement. Pour des raisons de sécurité, ces sauvegardes sont stockées sur des serveurs situés dans un autre datacentre que celui qui héberge nos sites internet. Ce datacentre est situé en Suisse, à Genève.

Mise en place de données structurées

L’intelligence artificielle de Google n’est pas si intelligente que cela … Pour chaque contenu, il faut indiquer à Google de quel type de contenu il s’agit.

Par exemple, dans un texte, je peux citer le nom d’une personne. Google sera incapable de savoir que cette partie de texte est un nom. Il faut donc lui le montrer. Pour cela, Google, Yahoo, Bing, et plus récemment Yandex ont joint leurs forces pour créer schema.org.

Dans le texte de nos sites web, nous insérons des balises schema.org afin de montrer aux moteurs de recherche de quel contenu il s’agit. Il peut s’agir du titre d’un produit, de sa description, d’un prix, d’un numéro de téléphone, d’une adresse… Le but de cette manœuvre est d’améliorer le référencement de nos sites web.

Qualité des pages testée pour le W3C

OK, soyons clairs, la qualité du codage influence peu le référencement naturel d’un site. Cependant, nous sommes persuadés que le web de qualité passe par des sites web bien codés.

Dans le fait, peu d’agence web fournissent à leurs clients des sites web de qualité dont le code source de chacune des pages est valide au W3C. C’est clairement une plus-value importante aux sites internet que nous réalisons dans notre agence.

Le protocole Opengraph

Créé par Facebook en 2010, l’Opengraph est une série de balises qui permettent aux sites internet de choisir qu’elle est l’image, le titre et l’URL qui apparait sur les réseaux sociaux lors d’un partage d’une page web. Tous les sites internet que nous créons possèdent ces balises. Dans notre interface d’administration, il est même possible de les modifier.

vendredi 26 avril, 20:52

Bonjour ! Par lequel de nos services êtes-vous intéressé ?

La création d'un site internet

La gestion des réseaux sociaux

J'ai une autre question

Vous souhaitez prendre rendez-vous ?

Nous rassemblons et traitons les données à caractère personnel reçues de votre part uniquement dans le cadre de la gestion de nos clients, de notre comptabilité et de notre marketing direct. En remplissant ce formulaire, vous donnez expressément votre accord à ce traitement (cochez la case « opt-in » lors de la préinscription). Vos données à caractère personnel ne seront transmises et conservées que dans la mesure et la durée rendues nécessaires par les finalités susnommées. Vous avez un droit de consultation, rectification, suppression et regard sur ces données. Le responsable du traitement est l’entreprise Agence Digitale Defaweux, Chaussée de Liège 258, 4710 Lontzen. Pour de plus amples informations, vous pouvez consulter notre Data Protection Notice sur notre site Internet https://www.defaweux.be.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.