English
protection
CrawlTrack, tableau de bord du webmaster.
Web analytique et référencement

CrawlProtect, la sécurité de votre site internet.
Protection anti-hacking, anti-spam et anti-vol de contenu

Deux scripts php/MySQL gratuits et faciles à installer
Les outils nécessaires pour piloter et garder le contrôle de votre site et de son référencement.




diable

CrawlTrack, tableau de bord du webmaster.
Web analytique et référencement

CrawlProtect, la sécurité de votre site internet.
Protection anti-hacking, anti-spam et anti-vol de contenu

Deux scripts php/MySQL gratuits et faciles à installer
Les outils nécessaires pour piloter et garder le contrôle de votre site et de son référencement.










Questions diverses.



Est-ce qu'il y aura obligatoirement un logo Crawltrack sur mes pages?

Non, vous pouvez choisir de ne pas mettre de logo lors de la création du tag à incorporer sur vos pages.

Est-ce que je peux avoir des logos différents selon mes pages?

Oui, il suffit de créer un nouveau tag avec un autre logo, vous pouvez avoir un tag différent par page.

Pourquoi y-a-t-il deux tag proposés et comment choisir le bon?

Le tag standard (le premier) est à privilégier pour des raison de rapidité de traitement. Le deuxième tag est fourni pour pouvoir auditer des sites hébergés sur un serveur différent de celui ou est installé CrawlTrack. Dans ce cas là l'include utilisé dans le premier tag ne peut pas fonctionner.

Ou doit on placer le tag Crawltrack?

Si vous avez fait le choix de mettre un logo, il faut mettre le tag là ou vous désirez que le logo apparaisse. Si vous avez fait le choix de ne pas mettre de logo, le tag peux être mis n'importe ou.

Comment voir la liste des robots présents dans la base de données?

Il suffit pour cela de cliquer sur le lien "Supprimer un robot" dans la page "Outils". Vous aurez alors accès à la liste complète, et rien ne vous oblige à en supprimer...

Comment sont détecté les robots?

Les robots sont détectés en utilisant leur User-Agent ou leur adresse IP. La base de données de CrawlTrack ne contient à l'origine que les User-Agents; mais vous pouvez créer des nouveaux robots en utilisant la détection par l'IP si nécessaire.

Est-ce qu'il faut connaitre l'IP exacte pour détecter un robot?

Vous pouvez ne mettre que le début de l'IP, par exemple: 222.15; à partir de là toute les visites venant d'une IP commençant par 222.15 seront comptabilisées pour ce robot.

Comment passer d'une version précédente de CrawlTrack à la nouvelle?

1)Uploadez les nouveaux fichiers dans votre répertoire CrawlTrack, en prenant garde à préserver le fichier crawltrack.php (à la racine de votre répertoire crawltrack) et le fichier configconnect.php (dans le répertoire include).

2)Visiter votre page Crawltrack, la mise à jour va se faire automatiquement.

Votre CrawlTrack est maintenant à jour.


Nota: Si vous utilisiez la version 1.0.0 et que vous voulez pouvoir utiliser un nom de site plus long, avec phpmyadmin, changez dans la table crawlt_site le type pour le champs name de VARCHAR(20) en VARCHAR(45).

Qu'est-ce que la mise en cache des pages?

Lors de la consultation d'une page de Crawltrack de nombreux calculs sont effectués pour mettre en forme les tableaux et les graphes. Depuis la version 1.6.0, pour éviter de refaire ces calculs à chaque fois, lors de la consultation d'une page celle-ci est mise en cache (enregistrée).
Lors des consultations suivantes c'est cette page enregistrée qui est présentée, il n'y a donc pas de nouveaux calculs.
Ceci est valable pendant une heure, au bout d'une heure la page est recalculée. L'heure à laquelle la page a été calculée est indiquée en gris sous le menu de sélection du site.