Handy-Backup

  • Hi zusammen, ich wollte von euch mal wissen wie ich am besten immer wieder ein File verarbeite welches länger & länger wird. Folgendes:
    File am anfang

    Code
    1;asd
    2;bsd
    3;wer

    File 12 Stunden später

    Code
    1;asd
    2;bsd
    3;wer
    4;tzj
    5;kji

    File 24 Stunden später

    Code
    1;asd
    2;bsd
    3;wer
    4;tzj
    5;kji
    6;fgh
    7;fjg

    Nun bis jetzt lade ich jedes mal das ganze File in einen Array, splitte das ganze und schaue dann wo die Zahl grösser ist als die alte gespeicherte Zahl (3 bzw. 5).
    Das Problem ist das File oben ist nur ein Beispiel. Meine Files haben derzeit 13'000 Zeilen mit mindestens 250 Zeichen. Somit dauert das ganze verdammt lange.
    Hat jemand eine Idee?

    Greetz

    //Das ganze ist ein Handy-File.

    Einmal editiert, zuletzt von Fr34k (28. Februar 2012 um 10:19)

  • Mit

    [autoit]

    _FileListToArray

    [/autoit]

    einlesen dann brauchst dir nur immer den endindex speichern und weiß beim neuen lesen das alles höher diesem Index neu ist.

    Andy hat mir ein Schnitzel gebacken aber da war ein Raupi drauf und bevor Oscar das Bugfixen konnte kam Alina und gab mir ein AspirinJunkie.

  • Ja, das hatte ich schon. Ich bringe es ja hin dass das ganze File ausgelesen wird. Aber ich habe soeben gemerkt dass ich eigentlich völlig überflüssig alles in den Array schreibe und danach lösche. Ich kann ja davor bereits prüfen, und anschliessend nichts löschen.

  • Habe es nun auf eine geschwindigkeit von etwa 4 Sekunden gebracht. Und dies von etwa 1100. Reicht mir eigentlich schon völlig aus, am schluss muss sowiso jeder Array-Eintrag auf eine URL zugreiffen, passt also :)

    Danke für eure Hilfe!

    Greetz