Picture Grabber

  • Hallo Leute,


    ich bräuchte mal etwas Hilfe.


    Kennt jemand von euch ein kleines aber unkompliziertes Tool mit dem man Bilder (also JPG-Dateien) von einer Website bzw. Gallerie ziehen kann?


    Den PicGrab kenne ich bereits und so etwas suche ich auch, aber es sollte nach Möglichkeit Freeware bzw. kostenlos sein.


    Beim PicGrab löscht er in der Freeware jede vierte Datei (soweit ich das festgestellt habe).


    Kennt da jemand von euch eine gute Alternative?


    Danke schonmal im voraus.

    "Ein Huhn auf dem Kopf ist besser als ein Ei auf dem Stuhl."

    Dieser Beitrag wurde bereits 1 Mal editiert, zuletzt von Thalion ()

  • Zitat

    Original von Bellaria
    Willst du die Bilder einfach nur speichern?


    Ja, genau.
    Ich möchte die Bilder lediglich auf meiner Festplatte speichern. Ich sammle halt gerne Bilder von Con's auf denen ich war. ;)


    Und um nicht jedes Bild von 200 Stück einzeln speichern zu müssen, würde ich das gerne Automatisch machen.
    Teilweise ging das schon mit dem Webimport-Assistent von Frontpage aber der funktioniert oftmals nicht richtig.

  • tja, DAS tool für sowas ist "wget"


    das ist ursprünglich ein linux tool und wurde auch für win portiert.
    das kann wirklich fast alles, wenns ums downloaden von kram aus dem netz geht.


    allerdings ist das ein kommandozeilen-programm, und wird über parameter gesteuert, man muss sich also en bissi durch die dokumentation wühlen bis man alle parameter zusammen hat


    was dir wohl am meisten hilft sind die parameter -r -lx
    das heisst, dass er die seite die du angibst rekursiv um x level durchwühlt und auch links folgt.


    dabei kommt dann aber viel kram runter, den du nit willst. das wiederum kannst du mit filtern usw verhindern, was die sache aber schwieriger macht.


    aber wie gesagt, wget kann fast alles, man muss es nur dazu bringen auch zu tun, was man will


    cu cordo

  • Danke Cordo. :beer:


    Werde mal versuchen mich einzuarbeiten.



    Allerdings wäre mir ein "Unkomplizierteres" Tool natürlich lieber.


    Wenn also jemand eine andere Alternative kennt, wäre das echt klasse.

  • Für sowas nehm ich meistens FlashGet.


    Das ist eigentlich ein Downloadmanager.
    Es gibt aber einen "Website-Explorer" (F7) mit dem man (wenn zugelassen) den kompletten Inhalt des Webservers anschauen kann und dann alle Bilder in die Download-Schlange verfrachten kann.


    Das funzt eigentlich fast immer. :D

  • Zitat

    Original von Teufelchen
    Für sowas nehm ich meistens FlashGet.


    Das ist eigentlich ein Downloadmanager.
    Es gibt aber einen "Website-Explorer" (F7) mit dem man (wenn zugelassen) den kompletten Inhalt des Webservers anschauen kann und dann alle Bilder in die Download-Schlange verfrachten kann.


    Das funzt eigentlich fast immer. :D


    Danke. Werde ich heute Abend mal ausprobieren.

  • Zitat

    Original von Teufelchen
    Für sowas nehm ich meistens FlashGet.


    Das ist eigentlich ein Downloadmanager.
    Es gibt aber einen "Website-Explorer" (F7) mit dem man (wenn zugelassen) den kompletten Inhalt des Webservers anschauen kann und dann alle Bilder in die Download-Schlange verfrachten kann.


    Das funzt eigentlich fast immer. :D


    Leider hat es in diesem Fall nicht gefunzt. :(


    Ich schätze mal, das es irgendwie unterbunden ist, die Bilder zu ziehen. Sehr schade.


    Trotzdem Danke für eure Antworten.

  • Schade.


    Wenn du mir die URL gibts (sofern du sie verraten willst), kuck ich mir das mal an.
    Vielleicht fällt mir ja was schlaues ein.

  • Das ist ja geil!!!
    wget ist zwar auf anhieb total unverständlich, aber wenn man sich mal ein wenig Zeit nimmt, dann kriegt du die Bildchen relativ einfach von der Seite!


    Sowas zusammen mit meinem Neuen DSL-Anschluss ist wie Weihnachten und Geburtstag auf einmal! Endlich kein nerviges Conbilder einzeln laden...

  • am besten ist, wenn du dir noch nen kleinen generator schreibst, wo du dann url_anfang + laufende_nummer + .jpg generieren kannst. das ganze in ne textdatei mit wget -i dateiname werden alle files gezogen


    wunderbar, wenn so dateien laufend durchnummeriert sind ;o)

  • Zitat

    Original von Teufelchen
    Schade.


    Wenn du mir die URL gibts (sofern du sie verraten willst), kuck ich mir das mal an.
    Vielleicht fällt mir ja was schlaues ein.


    Klar, warum soll ich die nicht verraten wollen ....


    http://galerie.mykralle.de/thumbnails.php?album=9


    Es geht mir um die Bilder vom Falturilion 1. War ein ganz nettes Con.


    In dem Flashget bekommen zwar die Struktur angezeigt, aber im Ordner .../Albums/petterweill kriege ich eben nur ein paar Thumbnails angezeigt.



    Und mit dem Wget habe ich auch gestern versucht was hinzukriegen, aber mit Kommando-basierten Programmen hatte ich schon immer Schwierigkeiten.



    Das fiese daran ist, mit dem Tool PicGrab würde es vermutlich funktionieren, aber da es nur eine Shareware Version ist, lässt es jede 4. Datei einfach weg. :(

  • Zitat

    Original von Thalion


    Klar, warum soll ich die nicht verraten wollen ....


    http://galerie.mykralle.de/thumbnails.php?album=9


    Nuja. Vielleicht währ es dir das zu Privat gewesen oder oder oder


    Zitat

    Original von Thalion
    Es geht mir um die Bilder vom Falturilion 1. War ein ganz nettes Con.


    In dem Flashget bekommen zwar die Struktur angezeigt, aber im Ordner .../Albums/petterweill kriege ich eben nur ein paar Thumbnails angezeigt.


    Ich hab mir das eben mal angeschaut.
    Dadurch das auf der Seite Javascript benutzt wird und die Bilder anscheinend aus einer Datenbank kommen, klappt das mit Flashget leider nicht


    Zitat

    Original von Thalion
    Und mit dem Wget habe ich auch gestern versucht was hinzukriegen, aber mit Kommando-basierten Programmen hatte ich schon immer Schwierigkeiten.


    Ja, ist immer etwas schwierig, wenn man eigentlich ne Grafische Oberfläche gewöhnt ist. Für nen Linuxuser der vielleicht auch noch ein wenig erfahrung in Scriptsprachen und/oder Programmieren hat (das kommt da ja zwangsläufig, wenn man sich etwas eingehender mit Linix befasst) ist ein Tool wie WGET natürlich super flexibel und mächtig.


    Aber der normale Windows Mausschubser (ich will jetzt niemand zu nahe treten) ist dann doch wohl etwas überfordert mit dem Rattenschwanz an Optionen die man dem Programm mitgeben muss, das es das tut, was man von ihm will :rolleyes:


    Zitat

    Original von Thalion
    Das fiese daran ist, mit dem Tool PicGrab würde es vermutlich funktionieren, aber da es nur eine Shareware Version ist, lässt es jede 4. Datei einfach weg. :(


    Die einfachste Lösung (ohne viel Suchen und Probieren) währe ja, für das Programm zu bezahlen ...
    Oder mit der Sharewear Version die Bilder ziehen und dann per Hand die fehlenden nachladen ...
    Oder du arbeitest dich doch in WGET ein.

  • Zitat

    Original von Teufelchen
    Die einfachste Lösung (ohne viel Suchen und Probieren) währe ja, für das Programm zu bezahlen ...
    Oder mit der Sharewear Version die Bilder ziehen und dann per Hand die fehlenden nachladen ...
    Oder du arbeitest dich doch in WGET ein.


    Bei 400 Bildern wären das immer noch 100 Files und da hat man schon beim bloßen Anblick der Zahl keine Lust mehr. ;)


    Und mir eine Version davon zu kaufen habe ich mir auch schon gedacht, mal sehen.



    Trotzdem Danke fürs ausprobieren.