cs_nicofunky
Messages postés3Date d'inscriptionmercredi 28 juin 2006StatutMembreDernière intervention 3 juillet 2006
-
3 juil. 2006 à 11:49
EaglesEyes
Messages postés33Date d'inscriptionvendredi 23 avril 2004StatutMembreDernière intervention27 février 2008
-
13 juil. 2006 à 16:43
Bonjout,
J'écris un crawler en java pour aller récupérer directement des fichiers sur internet. Mais je ne sais pas pourquoi, sur certains pc (windows) je n'arrive pas à me connecter. Voila le code :
HttpURLConnection connection = (HttpURLConnection)url.openConnection();
int responseCode = connection.getResponseCode();
String contentType = connection.getContentType();
// Note: contentLength == -1 if NOT KNOWN (i.e. not returned from server)
int contentLength = connection.getContentLength();
//objet a moi
PageInfo p = new PageInfo(url,parentUrl,contentType,contentLength,responseCode);
InputStreamReader rdr =
new InputStreamReader(connection.getInputStream());
//parsing de la page html
p.extract(rdr);
rdr.close();
connection.disconnect();
Il arrive bien a faire url.openConnection(), mais il plante juste aprés en me sortant une IllegalArgumentException. J'ai cru comprendre qu'il peut s'agir d'un problème de configuration de proxy ou je ne sais quoi. Mais j'y comprends pas grand chose...
Comment marche les instructions du genre :
//constructeur de la classe : elle prend pour argument une chaine de caractere.... public configProxy() { frameProxy = new JFrame("Configuration du proxy"); typeConnexion = new JPanel();
modem = new JRadioButton("Modem"); HTTP = new JRadioButton("HTTP");
ok = new JButton("OK");
ok.setSize(new Dimension(10,10));