Evangun
Messages postés1980Date d'inscriptiondimanche 20 février 2005StatutMembreDernière intervention24 septembre 2012
-
24 sept. 2012 à 12:17
Utilisateur anonyme -
25 sept. 2012 à 16:51
Bonjour à tous,
je considère la réalisation d'un site internet grand public qui ferait lecteur de flux RSS et d'autres choses à côté. Un crawler devra donc régulièrement établir des milliers de connexions vers de nombreux sites pour récupérer les flux ATOM, XML etc.
Je viens du monde LAMP et n'ai jamais développé JAVA, mais j'ai cru comprendre que c'était sans doute le meilleur langage pour un site à gros trafic ayant des besoins de maintenir de nombreuses connexions concurrentes de manière asynchrone. On m'a aussi parlé de Scala et NodeJS. Au passage, le fait que je puisse utiliser des websockets côté client serait appréciable (pour charger rapidement les flux à la volée).
Pourriez-vous s'il vous plait me dire comment vous aborderiez un projet de ce genre ? JAVA est-il le meilleur choix selon vous pour construire ce site agrégateur de flux ?
Vous pouvez utiliser Stax, JDOM ou DOM pour faire le parsing des fichiers écrits avec différents dialectes XML. Rien ne vous oblige à utiliser Java à la fois côté serveur et côté client. Par exemple, vous pouvez tout à fait ne l'utiliser que côté serveur si vous préférez utiliser un autre langage côté client.