Récupérer des données d'une pages web

bigbig

XLDnaute Nouveau
Bonjour à tous,

Je souhaite extraire des données de pages webs :
- Certaines valeurs et textes,
- Certaines liens (adresse web à récupérer),
- Quelques images (Données représentés sous forme d'image)

A faire VBA sous excel 2000.

Actuellement j'arrive à enregistrer le code source d'une page précise, ce qui me donne un fichier html en local qui contient toutes les données utiles, mais ce fichier de plus de 50 Ko est encombré de nombreux code et autre partie inutile assez génant (Par ex: Menu, 50 liens dont seulement 3 ou 4 à conservé, ...)

Celà devrait se faire pour les liens et images puisqu'il y a des balises spécifiques dans le code html.

Par contre, pour le texte pure, là c'est plus difficile puisque pas de balise spécifique.
Une première simplification serait d'arriver à récupérer (soit à partir du site, soit à partir du fichier local) uniquement le texte, mais comment ?

(Je ne souhaite pas faire un décodage complet du code html, trop compliqué et beaucoup de balises différentes qu'il me faudrait apprendre)

Manuellement, j'arrive à ne conserver que le text ainsi :
- Dans internet explorer, sur la page à récupérer :
Edition\Selectionner tout\Copier
- Dans le bloc note : coller
OU
- Dans Wordpad, collage spécial et "text non formaté" (sinon ne marche pas)

Si vous avez des pistes pour automatiser cette dernière partie...
Et toutes astuces pour extraire des données d'une page html est la bienvenue.

Merci de votre aide, A+
 

Discussions similaires

Statistiques des forums

Discussions
312 282
Messages
2 086 767
Membres
103 390
dernier inscrit
BMatoul