1. Dashboard
  2. Mitglieder
    1. Letzte Aktivitäten
    2. Benutzer online
    3. Team
    4. Mitgliedersuche
  3. Forenregeln
  4. Forum
    1. Unerledigte Themen
  • Anmelden
  • Registrieren
  • Suche
Alles
  • Alles
  • Artikel
  • Seiten
  • Forum
  • Erweiterte Suche
  1. AutoIt.de - Das deutschsprachige Forum.
  2. Mitglieder
  3. R4z0r

Beiträge von R4z0r

  • Text in HTML Seite auslesen

    • R4z0r
    • 1. März 2015 um 00:54

    Das ist ja mein Problem ich kenne mich nicht mit Arrays aus. Habe auch die Hilfe gelesen - aber nach 6 Stunden bin ich entweder a) nicht mehr aufnahmefähig oder b) zu doof

    Also wenn mit jemand den kompletten Quellcode liefern kann der:

    IE Refresh auf einer Seite macht
    Auf dieser Seite ist dieses Dropdown, meist sind es Kategorie Ticket 1 - 4 mit unterschiedlicher Anzahl
    -> Beispiel:
    Kategorie 1 frei: 123
    Kategorie 2 frei: 1
    Kategorie 3 frei: 3
    Kategorie 4 frei: 453

    ich refreshe die Page alle x Sekunden. Selten erscheint dann eine Kategorie 5. Die ist es die mich interessiert.

    Wenn diese Kategorie 5 erschein möchte ich diese auswählen aus dieser Dropdown Box so dass dann auf der Website nur noch Kategorie 5 Tickets da sind. Die kann ich dann kaufen über den Buy Button.

    Wie gesagt ich wäre bereit auch was zu zahlen. Ich verschwende zu viel Zeit schon und bin frustriert :-/

  • Text in HTML Seite auslesen

    • R4z0r
    • 1. März 2015 um 00:37

    Die Zahlen ändern sich und ich lese dass aus einer Webseite auf der ich ein Refresh mache? Ich möchte eigentlich nur sehen ob Kategorie 5 nach einem Refresh auftaucht und wenn ja dann in den Warenkorb. Ich hoffe jetzt ist es verständlicher :-/

    FALLS Kategorie 5 auftaucht möchte ich mit AutoIt dann Select Kategorie 5 selektieren dann submit und somit sind dann auf der Page nur noch Kategorie 5 Tickets.

    Bitte um Hilfe. Ich zahle auch $

  • Text in HTML Seite auslesen

    • R4z0r
    • 1. März 2015 um 00:14

    Das ist das komplette Dropdown:

    <option selected="selected" value="">Alle Karten anzeigen</Option>
    <option value="Kategorie 1">Kategorie 1 frei: 64</option>
    <option value="Kategorie 2">Kategorie 2 frei: 126</option>
    <option value="Kategorie 3">Kategorie 3 frei: 106</option>
    <option value="Kategorie 4">Kategorie 4 frei: 36</option>
    </select>

    Wenn ich jetzt Deinen Code so verwende:


    $sText = _IEBodyReadHTML ($oIE)
    $aRegExp = StringRegExp($sText, '(\d*)</', 3)
    _ArrayDisplay($aRegExp)
    MsgBox(0,"Und",$aRegExp)

    Ich bekomme dann eine Gridview - das wäre relevant
    Row|Col 0
    [190]|64
    [191]|126
    [192]|106
    [193]|36

    Ich benötige aber 64,126,106 und 36 jeweils als variable?

  • Text in HTML Seite auslesen

    • R4z0r
    • 28. Februar 2015 um 23:48

    Kannnst Du mit das bitte ausfürlich (wie) zeigen?

    Syntax .......
    ......

    ?

  • Text in HTML Seite auslesen

    • R4z0r
    • 28. Februar 2015 um 23:10

    Hi. Ich habe folgendes Problem:

    Ich möchte aus einer HTML Page bei einem Dropdown Menu:

    <option value="Kategorie 1">Kategorie 1 frei: 66</option>
    <option value="Kategorie 2">Kategorie 2 frei: 124</option>
    <option value="Kategorie 3">Kategorie 3 frei: 104</option>
    <option value="Kategorie 4">Kategorie 4 frei: 40</Option>

    66, 124, 104 und 40 auslesen. Die Zahlen ändern sich bei jedem Browser (IE) Refresh

    Ich habe _IEBodyReadHTML und _IEBodyReadText benutzt.

    Ich weiss dass dies über Regex oder String geht. Habe mit den String Funktionen gearbeitet bekomme es aber einfach nicht auf die Reihe. Kann mit bitte jemand helfen?

    :wacko:

  • StringRegExp und grosse Website Pages

    • R4z0r
    • 10. Januar 2015 um 21:40

    Hi Andy - danke für Deine erneute Hilfe!

    Regex : IP:Port z.b. 123.456.7.8:12345 oder 1.2.3.4.:80 keine Zahl in der IP kann über 255 sein (Ausnahme Port)

  • Mit Autoit 2 Aktive Sitzungen starten

    • R4z0r
    • 10. Januar 2015 um 21:36
    Zitat von Alina

    Um den Browser InPrivate zu starten hängt man "-private" (nicht "-inprivate"!) an den Browser-Pfad. Also unter Start / Ausführen z.B. iexplore.exe -private.
    Entsprechend kann man auch eine Verknüpfung auf dem Desktop mit folgendem Ziel "C:\Program Files\Internet Explorer\iexplore.exe" -private
    anlegen. Auf einem 64bit-System: "C:\Program Files (x86)\Internet Explorer\iexplore.exe" -private Pfade sind gegebenfalls zu modifizieren.

    Im Privaten Modus kannst Du aber wieder deine benötigten Cookies vergessen

  • StringRegExp und grosse Website Pages

    • R4z0r
    • 7. Januar 2015 um 10:54

    Benötige dringend Hilfe. Ein Freund hat mir diese Funktion geschrieben. Haben keinen Kontakt mehr. Diese Funktion liest aus einem Textfile 1 URL pro Zeile ein und "saugt" die Proxies raus. Es benutzt dabei StringRegExp. Das funktioniert alles super bis Du auf Pages wie diese hier triffst: https://draft.blogger.com/feeds/65222318…5/posts/Default
    Da bleibt es dann stehen... Entweder wegen dem Duplikate Check oder dem Filtern per Regex oder beidem. Die Funktion checkt auch auf Websites die Offline sind oder Links wo das Script schon "war" aber das funzt ja. Kann mir ein Profi die Funktion umschreiben so das auch so grosse Pages funktionieren. Mir bringt diese Funktion nicht wenn es in der Mitte stehen bleibt. ?( NACHTRAG: NACH 2 STUNDEN WARTEN GEHT ES DANN WEITER. Ist aber viel zu langsam!

    $zentral = Textfile mit der Liste von URLs

    Code
    Func _leech()
     $link_counter = _FileCountLines($zentral)
    
    
     If (FileExists($logpath & "old_list.txt")) Then
      ConsoleWrite("Datenbank wird geladen . . ." & @CRLF)
      _FileReadToArray($logpath & "old_list.txt", $old_list)
      _ArrayDelete($old_list, 0)
     EndIf
    
    
     For $zeile = 1 To $link_counter
    
    
      $link = FileReadLine($zentral, $zeile)
      $new = 0
    
    
      If (IniRead($logpath & "dead.ini", $link, "Dead", False) == True) Then
       ConsoleWrite("Link #" & $zeile & " wird übersprungen --> Dead Site!" & @CRLF)
       $zeile += 1
       $link = FileReadLine($zentral, $zeile)
      EndIf
    
    
      ConsoleWrite("Link #" & $zeile & ": " & $link & @CRLF)
    
    
      If (FileExists($logpath & "bad.ini")) Then $counter = IniRead($logpath & "bad.ini", $link, "visit", 0)
      If ($counter >= $max_visit) Then IniWrite($logpath & "dead.ini", $link, "Dead", True)
    
    
      $file = InetRead($link, 1)
      If Not @error Then
       $file = BinaryToString($file)
       $found = StringRegExp($file, "(\d{1,3}\.\d{1,3}\.\d{1,3}\.\d{1,3})(?s).*?(\d{1,5})", 3)
       ; Original
       ;$found = StringRegExp($file, "[1-2]\?[0-9]\{1,3\}\.[1-2]\?[0-9]\{1,3\}\.[1-2]\?[0-9]\{1,3\}\.[1-2]\?[0-9]\{1,3\}[:\ ][1-9]\?[0-9]\{1,5\}", 3))
       ; http://mrhinkydink.wordpress.com/proxy-regex/
       ; \b(?:(?:25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.){3}(?:25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\b[:\ ]\d{2,5}
       ; by Thomas Willner
    
    
       If (IsArray($found)) Then
        For $u = 0 To UBound($found) - 1 Step 2
         $found[$u] = $found[$u] & ":" & $found[$u + 1]
        Next
    
    
        For $l = UBound($found) - 1 To 0 Step -2
         _ArrayDelete($found, $l)
        Next
        ConsoleWrite("Proxys: " & UBound($found) - 1 & @CRLF)
    
    
        For $g = 0 To UBound($found) - 1
         $index = _ArraySearch($old_list, $found[$g])
         If ($index == -1) Then
          $new += 1
          FileWriteLine($output, $found[$g])
          FileWriteLine($logpath & "old_list.txt", $found[$g])
         EndIf
        Next
    
    
        If ($new == 0) Then ;Drop nothing New
         $counter += 1
         FileWriteLine($nothing_new, $link)
         IniWrite($logpath & "bad.ini", $link, "visit", $counter)
         ConsoleWrite("Link #" & $zeile & " --> Nothing New!" & @CRLF)
        EndIf
        ConsoleWrite("Link #" & $zeile & ": " & $new & " neue Einträge" & @CRLF)
       Else
    ;~     Drop no Data
        $counter += 1
        ConsoleWrite("Link #" & $zeile & " --> No Data!" & @CRLF)
        FileWriteLine($no_data, $link)
        IniWrite($logpath & "bad.ini", $link, "visit", $counter)
       EndIf
    
    
      Else
    ;~   Drop offline
       $counter += 1
       ConsoleWrite("Link #" & $zeile & " --> Offline!" & @CRLF)
       FileWriteLine($offline, $link)
       IniWrite($logpath & "bad.ini", $link, "visit", $counter)
      EndIf
    
    
      ; TRY DELAY
      ; Sleep(500)
    
    
     Next
     Return
    EndFunc   ;==>_leech
    Alles anzeigen


    Kann keiner helfen? :wacko:

  • File Manipulation mit Array und Regex: Nur numerische Zeilen in File löschen -HILFE-

    • R4z0r
    • 27. Dezember 2014 um 09:42

    Nochmals vielen Dank. Dein Code hat eine 6 MB "gereinigt" . Falls was sein sollte melde ich mich.

  • File Manipulation mit Array und Regex: Nur numerische Zeilen in File löschen -HILFE-

    • R4z0r
    • 27. Dezember 2014 um 01:41

    Sieht Super aus. Hast Du eine Idee wie man kurz noch einfügen kann das eine Textdatei bleibt die NICHT die IP übrig hat? Ich sehe nur Textfiles die diese IPs drin haben.


    Schade - Dein nmal anders Edit (wenig code) ergibt dann diese Textdatei (Inhalt - sieht nach RegEx Problemen aus):

    Code
    feed:http://www.ddday.com/feed/
    http://<%= blog.tumblr_url %>
    http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://107.2.141.6:36081
    http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://125.163.177.13:31281
    http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://173.216.197.60:36081
    http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://174.50.132.155:36081
    http://174.50.3.155:36081
    http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://184.190.209.150:36081
    http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://http://

    Problem liegt anscheinend darin wenn eine IP Adresse einen Port mit 5 Digits hat und http:// wird nicht gelöscht. Was auch fehlt ist eine Zeile pro IP/Domain/Was auch immer

    ---------------------------------
    Dein 1. Code funktioniert! DANKE! :rock::party:

  • File Manipulation mit Array und Regex: Nur numerische Zeilen in File löschen -HILFE-

    • R4z0r
    • 26. Dezember 2014 um 23:51

    OK hier ist das Script das zum grössten Teil sowieso von Andy ist: :D

    Code
    $text = FileReadLine("test_offline.log")
    
    
    ;$text="1.2.3.4/bla/blub 1234567890 " & @crlf & "http.//bla.blub/tralala" & @crlf & "128.2.3.4/huhu " & @crlf & "17.12.2012 tralala " & @crlf& "http://192.168.2.1/AutoIt" &@crlf
    
    
    ConsoleWrite('@@ Debug(' & @ScriptLineNumber & ') : $text = ' & $text & @crlf & '>Error code: ' & @error & @crlf) ;### Debug Console
    
    
    filedelete("IP.txt")
    filewrite("IP.txt",$text)
    
    
    $dat=fileread("IP.txt")
    
    
    ; $ret= StringRegExpReplace($dat,"(?miU)(\b\d{1,3}\.\d{1,3}\.\d{1,3}\.\d{1,3}.*\r\n)","")
    $ret= StringRegExpReplace($dat,"[1-2]\?[0-9]\{1,3\}\.[1-2]\?[0-9]\{1,3\}\.[1-2]\?[0-9]\{1,3\}\.[1-2]\?[0-9]\{1,3\}[:\ ][1-9]\?[0-9]\{1,5\}", 3)
    ConsoleWrite('@@ Debug(' & @ScriptLineNumber & ') : $ret = ' & $ret & @crlf & '>Error code: ' & @error & @crlf) ;### Debug Console
    Alles anzeigen

    Also diesen Code benutzen und dann ein Textfile im gleichen Verzeichnis eerstellen mit diesem Inhalt:

    --- CONTENTS VON test_offline.log ---
    feed:http://www.ddday.com/feed/
    http://<%= blog.tumblr_url %>
    http://1.227.196.123:8080
    http://101.255.12.26:9292
    http://101.44.1.106:80
    http://101.44.1.107:80
    http://101.44.1.108:80
    http://101.44.1.109:80
    ; ...und so weiter...

    Wenn Ihr dann das Script mit dem Textfile laufen lasst bekommt Ihr:

    IP.txt

    mit diesem Inhalt:
    feed:http://www.ddday.com/feed/

    und das wars dann schon. IP.txt hätte auch die 2. Zeile vom Textfile integrieren müssen da dies ebenso NICHT eine IP Adresse ist.

    Bitte um Hilfe.

    P.S. Beim RegEx habe ich meines anstatt Andys benutzt.

  • File Manipulation mit Array und Regex: Nur numerische Zeilen in File löschen -HILFE-

    • R4z0r
    • 26. Dezember 2014 um 22:53

    BugFix: Ich habe genau das getan was Du und Andy mir vorgaben. Ich benötige in einem Textfile Domains und die IPs müssen raus. Wäre schön es mir nach ein paar Stunden einfacher zu machen.


    Es funktioniert jetzt aber nicht ganz:
    Das speichert er in IP.txt
    feed:http://www.ddday.com/feed/

    Das lässt er in der alten Textdatei
    http://<%= blog.tumblr_url %>

  • File Manipulation mit Array und Regex: Nur numerische Zeilen in File löschen -HILFE-

    • R4z0r
    • 26. Dezember 2014 um 22:14

    Ich sehe den Wald vor lauter Bäumen nicht. Sitze bestimmt mehr als 3 Stunden vor dem Code. :S

  • File Manipulation mit Array und Regex: Nur numerische Zeilen in File löschen -HILFE-

    • R4z0r
    • 26. Dezember 2014 um 21:52

    Andy ich habe ein Textfile das reingeladen werden muss und danach kommt dein Code.
    Jede Zeile im Textfile muss gecheckt werden ob IP oder Domainname...

    Happy New Year!

    Code
    $text = "test_offline.log"
    
    
    ConsoleWrite('@@ Debug(' & @ScriptLineNumber & ') : $text = ' & $text & @crlf & '>Error code: ' & @error & @crlf) ;### Debug Console
    
    
    filedelete("IP.txt")
    filewrite("IP.txt",$text)
    
    
    $dat=fileread("IP.txt")
    
    
    $ret= StringRegExpReplace($dat,"(?miU)(\bhttp:\/\/\d{1,3}\.\d{1,3}\.\d{1,3}\.\d{1,3}.*\r\n)","")
    ConsoleWrite('@@ Debug(' & @ScriptLineNumber & ') : $ret = ' & $ret & @crlf & '>Error code: ' & @error & @crlf) ;### Debug Console
    Alles anzeigen

    So wird in IP.txt die Variable von $Text reingeschrieben (also: test_offline.log)

  • File Manipulation mit Array und Regex: Nur numerische Zeilen in File löschen -HILFE-

    • R4z0r
    • 26. Dezember 2014 um 21:29

    Andy Deines klappt. Aber nicht wenn ich ein Textfile benutze. Da muss doch dann noch Readline irgendwo hin und falls es eine IP Adresse ist muss die Zeile gelöscht werden?

  • File Manipulation mit Array und Regex: Nur numerische Zeilen in File löschen -HILFE-

    • R4z0r
    • 26. Dezember 2014 um 21:20

    Danke!

    Habe so das Textfile geladen:
    $text = @ScriptDir & "test_offline.log"

    immer noch im textfile:
    101.255.12.26
    101.44.1.106
    101.44.1.107
    101.44.1.108
    101.44.1.109
    101.50.17.14
    .....

  • InternetExplorer nach Timeout neu laden lassen?

    • R4z0r
    • 26. Dezember 2014 um 20:32

    Oder mach es noch einfacher - schmutzig aber funktioniert

    $i=0
    While $i=0
    Lade die Seite
    Sleep(30000)
    Close Internet Exoplorer (sicherer als IENavigate)
    WEND

  • File Manipulation mit Array und Regex: Nur numerische Zeilen in File löschen -HILFE-

    • R4z0r
    • 26. Dezember 2014 um 20:29

    Sitze seit 2 Stunden am Problem und pack es nicht:

    Textfile.txt hat eine Liste mit http://

    NUR die http://IP - also numerisch z.b. http://127.0.0.1
    Falls Numeriusch muss die Zeile im Text file gelöscht werden
    --------------------------------------------------------------
    ALLE Domains mit NAMEN drin lassen, z.b. http://google.com

    Hilfe bitte :/

  • Wie kann ich das scrapen?

    • R4z0r
    • 28. März 2013 um 17:26

    Wie kann ich einen link scrapen der auf einer html page ist aber nicht als link gepostet wird sondern als text, beispiel:

    http://blablbla -> Text nicht link!!
    http://blablala

    ???  ?(


    Würde gerne diese Links in eine text datei speichern.

  • Text Field Value Wird Nicht Gesetzt!!!

    • R4z0r
    • 23. März 2013 um 18:07

    Ich weiss Du hast Recht :thumbup:

Spenden

Jeder Euro hilft uns, Euch zu helfen.

Download

AutoIt Tutorial
AutoIt Buch
Onlinehilfe
AutoIt Entwickler
  1. Datenschutzerklärung
  2. Impressum
  3. Shoutbox-Archiv
Community-Software: WoltLab Suite™