Même si vous utilisez Log(psycho)Analyst et que vous êtres très satisfaits par la qualité et la quantité des rapports proposés, vous pourriez désirer de meilleurs rapports. Cette page propose quelques trucs et astuces pour modifier votre site web dans ce sens. De la sorte, vos fichiers de logs sont améliorés et notre analyseur peut générer des rapports encore plus complets.
Sélectionner le format le log approprié
Votre serveur web peut usuellement générer plusieurs formats de fichiers de log. Vous devriez sélectionner le format le plus complet de sorte que notre analyseur de log puisse extraire le maximum d'informations.
Si possible, vous devriez utiliser le format de log suivant (mis sur deux lignes pour davantage de lisibilité):
Si vous n'avez pas la possibilité de faire cette modification, vous devriez utiliser les formats suivants:
serveur web Apache: format combined (et non le format simplifié common log format).
Référez-vous à la documentation de votre serveur web pour davantage d'informations.
Ajouter un tracker sur certaines pages
Des informations telles que la langue du navigateur ou la résolution d'écran ne peuvent être détectées par les informations contenues dans les fichiers de log. L'idée est donc de collecter ces informations via un petit script javascript ajouté sur certaines pages de votre site. Le tracker effectue une requête au serveur web et lui envoie les informations.
Quelles informations sont extraites?
Le tracker Log(psycho)Analyst peut extraire les informations suivantes:
résolution d'écran;
résolution du navigateur;
plugins installés:
Acrobat Reader;
Java;
Javascript;
Java Web Start;
Macromedia Flash player;
Macromedia Director ;
Quicktime Video;
Real Media Player;
Scalable Vector Graphics (SVG);
Windows Media Player;
Protection des données: seules les informations ci-dessus sont collectées. Javascript possède des mécanismes de sécurité empêchant l'exploitation des fichiers locaux du disque dur de l'utilisateur.
Où disposer le tracker?
Les informations récupérées par le tracker sont habituellement valides pour toute la durée de la visite. Par conséquent, il n'est pas nécessaire de mettre un code Javascript sur chaque page de votre site. De plus, le tracker prend un petit temps pour se télécharger et s'exécuter, et renvoyer de l'information au serveur web.
Si le temps de chargement d'une page est critique, vous devriez placer le code du tracker uniquement sur des pages spécifiques. Dans l'idéal, il faudrait que chaque visiteur puisse passer sur au moins une page contenant le tracker durant sa visite. Log(psycho)Analyst est assez malin pour vous indiquer sur quelles pages vous devriez installer le code du tracker: regardez dans la sections "Advice" de la page des statistiques du serveur.
Quel code javascript dois-je insérer?
Vous pouvez insérer le code suivant juste avant la fin des pages HTML suggérées par le conseiller Log(psycho)Analyst (voir ci-dessus):
Ce code génère une image transparente de 1x1 pixel de sorte que les visiteurs ne le remarquent pas. Si le visiteur a désactivé l'exécution du javascript (ou si celle-ci n'est pas supportée), le tracker envoie l'information que javascript n'est pas supporté à votre serveur web.
Une autre utilité de ce tracker est de détecter les robobts inamicaux qui masquent leur identité sous celle d'un navigateur utilisé par un humain (p.ex. Firefox ou Internet Explorer) en modifiant leur chaîne "HTTP user agent". Les robots vont normalement suivre le lien /lpa/iamabot.html apparaissant dans la section <noscript>, de sorte que le fichier de log contient cette information. Les visiteurs humains ne suivent généralement pas ce lien car celui-ci n'est pas présent lorsque javascript est supporté et est quasiment invisible lorsque javascript n'est pas supporté. Ce type de lien est nommé une trappe à robot
Vous devez ajouter deux fichiers à votre serveur web:
iamabot.html : doit être copié dans le répertoire /lpa/ (à créer au besoin);
english.png : doit être copié dans le répertoire /lpa/ (à créer au besoin);
german.png : doit être copié dans le répertoire /lpa/ (à créer au besoin);
french.png : doit être copié dans le répertoire /lpa/ (à créer au besoin);
Notes:
si nécessaire, la taille de l'image (height, width) peut être mise à zéro dans le code javascript ci-dessus et dans le fichier logpsychoanalyst_tracker.js. Cependant, sur certains navigateurs, le tracker ne sera pas capable d'envoyer les informations au serveur web, de sorte que la visite sera moins détaillée.
vous pouvez changer l'endroit où la trappe à robot est placée.
Vous pouvez changer l'endroit où le fichier du tracker est placé.
Détection des liens sortants
Lorsqu'un visiteur clique sur un lien à destination d'un autre site web, votre serveur web n'en a pas connaissance. Connaître le prochain site sur lequel va l'utilisateur vous permet d'améliorer la conception de votre site, par exemple en offrant le même contenu que ce site.
Vous pouvez mettre à jour tous vos liens à des sites internet externes comme suit:
<a href="http://www.an_external_web_site.com/">A external web site</a>
by:
<a href="http://www.an_external_web_site.com/" onclick="return exit_link(this.href, this.name);">A external web site</a>>
Sur chaque page où un lien a été modifié, vous devrez ajouter le code javascript suivant dans la section <head> :
Vous devrez encore copier le fichier exit_link.js dans le répertoire /lpa/ de votre serveur web. Note: ce fichier est intentionnellement vide.
Détecter les pages imprimées
Lorsqu'un visiteur est très intéressé par l'une des pages de votre site web, il est probable qu'il imprime la page pour un usage futur ou pour la donner à un ami. Vous pouvez détecter les pages imprimées en ajoutant le code suivant dans la section <head> de chaque page:
Le fichier de feuille de style CSS look_and_feel_print.css contient vos style d'impression (ou une copie de votre feuille de style pour l'affichage). Dans ce fichier, vous ajouterez une propriété à un tag HTML utilisé dans chaque page du site (p.ex. dans le CSS du tag <h1>):
Votre fichier /robots.txt peut indiquer quels fichiers ne doivent pas être accedés. Une mauvaise pratique est de lister toutes les pages qui contiennent de l'information confidentielle (p.ex. mots de passe). En effet, cette liste constitue une bonne source d'information pour un robot de hacker. En ajoutant les lignes suivantes à votre fichier /robots.txt, vous créez une trappe pour de tels robots: