Récupérer des données d'une pages web

bigbig

XLDnaute Nouveau
Bonjour à tous,

Je souhaite extraire des données de pages webs :
- Certaines valeurs et textes,
- Certaines liens (adresse web à récupérer),
- Quelques images (Données représentés sous forme d'image)

A faire VBA sous excel 2000.

Actuellement j'arrive à enregistrer le code source d'une page précise, ce qui me donne un fichier html en local qui contient toutes les données utiles, mais ce fichier de plus de 50 Ko est encombré de nombreux code et autre partie inutile assez génant (Par ex: Menu, 50 liens dont seulement 3 ou 4 à conservé, ...)

Celà devrait se faire pour les liens et images puisqu'il y a des balises spécifiques dans le code html.

Par contre, pour le texte pure, là c'est plus difficile puisque pas de balise spécifique.
Une première simplification serait d'arriver à récupérer (soit à partir du site, soit à partir du fichier local) uniquement le texte, mais comment ?

(Je ne souhaite pas faire un décodage complet du code html, trop compliqué et beaucoup de balises différentes qu'il me faudrait apprendre)

Manuellement, j'arrive à ne conserver que le text ainsi :
- Dans internet explorer, sur la page à récupérer :
Edition\Selectionner tout\Copier
- Dans le bloc note : coller
OU
- Dans Wordpad, collage spécial et "text non formaté" (sinon ne marche pas)

Si vous avez des pistes pour automatiser cette dernière partie...
Et toutes astuces pour extraire des données d'une page html est la bienvenue.

Merci de votre aide, A+
 

Discussions similaires

Membres actuellement en ligne

Aucun membre en ligne actuellement.

Statistiques des forums

Discussions
312 277
Messages
2 086 716
Membres
103 378
dernier inscrit
phdrouart