Ergebnis 1 bis 7 von 7
  1. #1
    Anfänger
    Registriert seit
    19.08.2008
    Beiträge
    15

    Standard mailcrawler + http login (perl?)

    Moin,

    ich bin auf der Suche nach einem gescheiten "E-Mail Crawler", welcher auch HTTP Login unterstützt.
    Dieser sollte sich in einem Portal einloggen und die Liste dort herunterladen... Per Hand ist bisschen heftig - sind ca. 2000 Stück, jedoch auf 55 Seiten angezeigt. Das sind quasi alles kleine Profile. Wenn man eins anklickt steht dort die Mail.

    Eine Alternative wäre noch: Einfach alle 55 Seiten kopieren mit einem Script.
    Dort stehen zwar nur Vor- und Nachnamen, aber diese kann das Script kopieren und dann so formatieren: vorname_nachname@mail.com, oder?

    Grüße

  2. #2
    Anfänger
    Registriert seit
    19.08.2008
    Beiträge
    15

    Standard

    Naja, sowas habe ich aber auch schon Public gesehen. Fragt sich nur wo!

  3. #3
    Powercookie! :D Avatar von killkill93
    Registriert seit
    04.06.2009
    Beiträge
    406

    Standard

    Wie wärs mit selber einen schreiben?
    Gute Übung

  4. #4
    Anfänger
    Registriert seit
    19.08.2008
    Beiträge
    15

    Standard

    Was meinst du was ich die letzten 2 Stunden gemacht habe.
    Nichts gefunden.
    Kann doch sein, das jmd. noch so einen Script auf Lager hat?

  5. #5
    W32.FunLove
    Registriert seit
    17.10.2011
    Beiträge
    142

    Standard

    sowas ist doch eigentlich schnell gemacht... da musst du eigentlich nur ein bißchen mit strings "rumspielen".

    das ist ja schon fast mit excel möglich, wenn du die Seiten in eine Tabelle kopierst.


    da lohnt sich der programmieraufwand ja nicht, wenn das nur einmalig ausgeführt werden soll und kein weitere abgleich stattfinden soll

  6. #6
    W32.Lovgate
    Registriert seit
    05.11.2008
    Beiträge
    367

    Standard

    Versuchs doch mal mit http://www.httrack.com/, da kann man auch Login daten angeben. Kommt na klar auf die Seite an ob du dich mit diesem Crawler dort überhaupt anmelden kannst und wenn du die Seiten erst mal runter geladen hast musst die ja auch noch auswerten ... könnte man gut mit Notpad++ machen.

    Selber nen Script schreiben iss na klar die eleganteste Lösung

  7. #7
    Fortgeschrittener
    Registriert seit
    11.12.2011
    Beiträge
    45

    Standard

    Sag doch welche webseite und ich werde mal sehn ob ich das für dich machen kann. Für mich wärs aber ne neue herausforderung, wollte aber schon immer mal mit curl sowas machen ;-D

Ähnliche Themen

  1. Perl ??
    Von Worms im Forum Trashbox
    Antworten: 2
    Letzter Beitrag: 21.08.2010, 13:46
  2. Perl = .pl ?? wie war dis?
    Von X.êr.rôR.X im Forum Perl
    Antworten: 6
    Letzter Beitrag: 29.02.2008, 02:17

Stichworte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •