Thema Script Samstag, 29.11.2008, 22:29:09 Uhr
Eigene IP herausfinden mit Perl Wie finde ich eigentlich meine eigene IP heraus? Also die eines fremden Rechners bzw. Servers kann man ja per gethostbyname herausfinden (siehe hier ), aber wie mache ich das für meinen eigenen Rechner? Da gibts ja keinen Domainnamen... wo also anpacken? Also, natürlich funktioniert das Ganze wieder ähnlich. Jeder Rechner heißt für sich ja generell erst mal "localhost". Und hier kann man anpacken:
my $name = (gethostbyname ("localhost"))[0]; my $addr = (gethostbyname ($name))[4]; #print "$name\n"; my $meineip= join ('.', unpack ("C4", $addr)); print "Meine IP ist: $meineip";
|
Weiterlesen...
Freitag, 20.6.2008, 10:32:54 Uhr
Datei durchsuchen mit Flip-Flop-Funktion Ich habe ja hier schon einmal über die Flip-Flop-Funktion in Perl geschrieben. Damals ging es um das Durchsuchen eines Arrays. Die Tage hatte ich ein ähnliches Problem, diesmal allerdings mit einer Datei. In dieser Datei lagen einige Daten, auf die ab und an mal zugegriffen werden soll, allerdings nur lesend. Das Beschreiben oder Ändern war nicht von Nöten.
Weiterlesen...
Donnerstag, 10.1.2008, 12:48:23 Uhr
Client - Server - Beispiel mit IO::Socket Ich habe mir doch vor Wochen 'nen Wohnzimmer-PC zusammengeschraubt... und hatte schon immer im Hinterkopf, wie ich das Thema auch in Perl einbauen kann.
Heute kam mir dann die Erleuchtung: Mal eben Perl auf das Teil installiert und versucht, per Perl Musik und Filme auf meinen Laptop zu übertragen.
Und da stellten sich mir gleich mehrere Probleme: Weiterlesen...
Dienstag, 8.1.2008, 15:48:14 Uhr
Ganze Verzeichnisse sperren für andere Anwendungen - Flock für Verzeichnisse Also, wieder mal Grundlagenforschung, die im Übrigen auch aus meinem Cache-Modul stammt:
Wie man per flock einzelne Dateien für Lesen bzw. Schreibzugriffe sperrt, ist glaub ich inzwischen bekannt.
Was aber tun, wenn man ganze Verzeichnisse sperren will? Eine Möglichkeit wäre, alle Dateien einzeln per flock zu sperren, was aber wohl etwas aufwändig werden würde. Weiterlesen...
Freitag, 4.1.2008, 12:48:49 Uhr
Mein Cache-Modul für Perl - Fortsetzung
Nachdem ich ja hier bereits mein Cache-Modul vorgestellt habe und hier mein optimiertes Dateisystem, habe ich mein Cache-Modul überarbeitet. Eingebaut ist nun das neue Dateisystem und neue Funktionen, die ich kurz vorstellen will:
Weiterlesen...
Donnerstag, 3.1.2008, 08:13:26 Uhr
Fortgeschrittenes beschreiben von Dateien - einzelne Zeilen finden und ändern bzw. löschen Nun, ich gebs ja zu, oft bin ich ja als Grundlagenforscher unterwegs. Diesmal geht es darum, Dateien möglichst so zu beschreiben, so daß beim Einlesen bestimmte Zeilen besonders schnell wiedergefunden werden können.
Na gut, ein Beispiel Ich habe 1000 fortlaufende Rechnungsnummern, dazu jeweils 1000 Brief-Texte, die ich in einer Datei speichern will. Später will ich möglichst effektiv auf jeweils beliebige Rechnungsnummern plus Brief-Texte zugreifen. Weiterlesen...
Montag, 17.12.2007, 13:00:03 Uhr
Dateiendung herausfinden mit Perl Also, wieder einmal etwas aus (meiner) Praxis: Nachdem ich mich ja immer noch mit dem Verarbeiten von Webseiten beschäftigte, tauchte das Problem auf, daß ich Dateiendungen in <img...> oder <link...>-Tags herausfinden wollte.
Die einzelne Extraktion hab ich ja schon hier beschrieben, also wie man zum Beispiel an den Dateiname kommt. Weiterlesen...
Samstag, 15.12.2007, 15:52:52 Uhr
Eine nette kleine RegEx
Ich bin gerade die Tage über eine kleine, nette RegEx gestolpert, die zwar nichts weltbewegendes ist, die ich aber trotzdem erwähnenswert finde. Und zwar ging es wieder mal darum, aus einer Website einen Link zu extrahieren.
Die folgende kleine Regex holt dann zum Beispiel den href-Teil aus dem <a...>-Tag:
my $link=qq~<a href="test.htm" target="_blank">Ein Link</a>~; if ($link=~ / href\=([\"\']*)(.*?)\1[\s\/>]/is) { $ergebnis =$2; } else { $ergebnis='Kein Link da'; } print $ergebnis;
|
Weiterlesen...
Dienstag, 11.12.2007, 11:20:43 Uhr
Nochmal Links testen - mein Modul für Perl Also ich habe mich ja schon öfters über das Testen von Links auf Webseiten ausgelassen. Da ich anscheinend einen Server habe, der weder das Modul Scraper noch WWW::Mechanize bereithält, bleibt mir eben nichts anderes übrig, als selbst mal wieder in die Tasten zu greifen und mir ein Modul zu schreiben, das Webseiten bzw. in Dateien gespeicherte Webseiten nach Links abgrast und mit alle Parameter der Links bereitstellt.
Herausgekommen ist das Modul, das hier heruntergeladen werden kann. Falls man es benutzen möchte, einfach in das cgi-bin-Verzeichnis kopieren und die Rechte auf 0755 setzen. Und was kann das Modul? Also: Weiterlesen...
Donnerstag, 6.12.2007, 17:25:53 Uhr
Google Sitemaps - Script zur Erstellung einer Sitemap-Datei für Google Googles Sitemaps sollen helfen, daß einzelne Webseiten von Google auch dann gefunden werden, wenn sie nirgends verlinkt sind. Dies ist dann wichtig, wenn man häufig wechselnden Content hat und ältere Beiträge nicht verloren gehen sollen. Zudem verspricht Google, daß die Indizierung dann schneller erfolgt. Was liegt also näher, als sich ein kleines Perl-Script zu schreiben, das eine solche Sitemap erzeugt, und zwar direkt auf dem Server?
Also machte ich mich mal ran an das Problem, und zwar mit folgenden Vorgaben: - Leicht zu konfigurieren Weiterlesen...
|