Vous n'êtes pas identifié.
Bonsoir,
Je suis fasciné par cette fonctionnalité qui permet de récuperer les données internet.
J'ai lu dans le forum qu'ajouter d'autres sources demanderait un effort certain. maintenant peut-être que d'autres come moi sont prêt à y contribuer.
Qu'en pensez vous ? comment pouvons nous vous aider à diversifier les sources de données pour améliorer encore plus ce superbe outil ?
Hors ligne
LA recherche internet fonctionne de la manière suivante : je récupère la page internet et je parse (recherche) dans la page les données dont j'ai besoin.
Pour que je puisse inclure d'autres page il y a 2 méthodes différentes : soit vous télécharger les sources et vous ajouter dedans la nouvelle méthode de recherche. Soit vous faite un module externe qui prend une page html en entrée et qui créée un fichier avec les données parsées.
Pour le format de fichier en sortie oon peut facilement discuter par mail si vous êtes motivés .
Hors ligne
Ok, je vais jetter un oeil aux sources d'abord
Hors ligne
Euh.. j'ai parlé un peu vite ici. Je ne connais pas le langage utilisé pour ta programmation. Je suis prêt à m'y plonger. Peux-tu juste me guider pour le spremier spas: langage, logiciel adhoc a avoir pour modifier et recompiler ?
Hors ligne
Bon, a priori c'est du C alors jhe m'y met. Merci de me dire si ce n'est pas le cas
Hors ligne
Bonjour. Super ce programme que de temps gagné.Merci
Cordialement Jean-Claude
Hors ligne
Bon, j'avais commencé à regarder la chose mais je viens de tomber sur un site qui fait exactement cela en ligne et permet d'exporter en xml: http://www.zestr.com
Jettes-y un oeil
Il ne semble par contre pas possible d'importer sa liste ou alors que du format delicious (que je ne connais pas)
Hors ligne
fougny a écrit:
LA recherche internet fonctionne de la manière suivante : je récupère la page internet et je parse (recherche) dans la page les données dont j'ai besoin.
Pour que je puisse inclure d'autres page il y a 2 méthodes différentes : soit vous télécharger les sources et vous ajouter dedans la nouvelle méthode de recherche. Soit vous faite un module externe qui prend une page html en entrée et qui créée un fichier avec les données parsées.
Pour le format de fichier en sortie oon peut facilement discuter par mail si vous êtes motivés.
Bonjour,
plutôt que de parser une page html, pourquoi ne pas directement utiliser les fonctionnalités proposées par les bibliothèques comme le z39.50 ou les webservices amazon [1,2] ? ça permet d'obtenir directement des données utilisables (xml ou autres) et ça donne accès à plein de bibliothèques (sudoc, bnf, library of congress etc)
Sinon, Tellico sous linux vient avec une liste assez complète de serveurs et de leurs caractéristiques ainsi qu'avec des fichiers xsl pour traiter ces données.
Les commandes pour aller récupérer les infos avec ces protocoles sont dans les fichiers de ce dossier des sources de tellico (C++, licence GNU GPL, ça ne devrait pas poser trop de problème avec le Cecill je pense) :
https://forgesvn1.novell.com/viewsvn/te … src/fetch/
Cordialement et bravo pour ce soft qui manquait sous windows
Mjules
[1] http://www.amazon.com/AWS-home-page-Mon … 942TSJ2AJA
[2]http://heikki.lehvaslaiho.googlepages.com/progs un programme pour récupérer les infos à partir des webservice amazon et les transformer en xml (pour tellico mais ça doit être modifiable), c'est du perl.
Dernière modification par Mjules (14-12-2006 21:15:08)
Hors ligne
Merci beaucoup pour ces renseignements, je regarderai cela avec attention!
Pour l'instant je travaille sur l'export HTML (pour la prochaine version) mais j'utiliserais tout ça certainement pour une version ultèrieure!
Hors ligne