Verschlüsselungsalgorithmus (Idee)

  • Hi,
    deine Idee ist richtig, über den Weg (das Script) kann man diskutieren :D

    Nur zur Info, die "Pixel" eines Bildes kann man einfach in eine Struct (das ist nichts anderes als ein Array) laden


    Das nützt aber nicht viel, da die oberen Bits der Farbanteile abhängig vom Bild sind, bei "bearbeiteten" Bildern natürlich noch mehr! Und alles, was Bilder komprimiert (jpg usw) filtert diese (zufälligen) Anteile gnadenlos raus!

    Aber egal, soll ja nur eine Demo sein, wir "verschlüsseln" einen Text mit den Pixeln eines Bildes:

    ciao
    Andy


    "Schlechtes Benehmen halten die Leute doch nur deswegen für eine Art Vorrecht, weil keiner ihnen aufs Maul haut." Klaus Kinski
    "Hint: Write comments after each line. So you can (better) see what your program does and what it not does. And we can see what you're thinking what your program does and we can point to the missunderstandings." A-Jay

    Wie man Fragen richtig stellt... Tutorial: Wie man Script-Fehler findet und beseitigt...X-Y-Problem

    2 Mal editiert, zuletzt von Andy (16. August 2015 um 10:02)

    • Offizieller Beitrag

    Genaugenommen handelt es sich ja um ein OTP. Die Sicherheit ist also schon sehr hoch, wenn da nicht das Problem mit der "Passwort"-Weitergabe wäre. Stichwort: Sicherer Übertragungsweg.
    Du musst dem Empfänger ja genau dieses Bild zukommen lassen, damit er die Nachricht entschlüsseln kann und genau da gibt es dann die Schwachstelle.
    Persönliche Übergabe? Hmm...dann kannst Du ihm auch gleich die Nachricht übergeben.
    Wie also soll die Übergabe des "Passwort"-Bildes erfolgen?

  • Naja, spielen wir das mal durch:

    Du bekommst von mir eine verschlüsselte Nachricht. Auf deiner Festplatte hast du 1000/10000/100000 Bilder, die ich auch habe (das wäre dann der "lange" Schlüssel.)
    Mal angenommen, ich würde "vergessen", dir den Schlüssel mitzuteilen, dann hättest du bei der heutigen Rechnerleistung trotzdem innerhalb weniger Sekunden den Text entschlüsselt!
    Ich könnte dir auch eine SMS schicken mit "ruf Tante Agathe an unter 0171-54231499", dann müsstest du das Bild "Tante Agathe" öffnen und als Pixel-Startadresse fürs Entschlüsseln 31499 .

    Ich könnte auch mit AES verschlüsseln, wie kommt der Schlüssel dann zu dir?

    //EDIT
    Sämtliche Verschlüsselungsverfahren sind nur dann wirksam, solange man den Schlüssel "geheim" halten muss.
    Ob ich jetzt einen 64/128/256 Bit/Byte "langen" Schlüssel mit Verfahren wie AES "aufpumpe" um per XOR damit Nachrichten zu verschlüsseln, oder direkt einen entsprechend "langen" Schlüssel verwende und damit dann die Nachricht XORe, ist unerheblich.
    Wieso wird heutzutage "gesalzen"? Naja, so gaaaanz sicher, dass der "kurze" Schlüssel einem Angriff standhält, ist man nicht! Also wird der Schlüssel verlängert.
    Imho überflüssig, die Arbeit kann man sich sparen!

    //EDIT 2
    Wie macht man das mit den OTPs im realen Leben?
    Dein Handy klingelt, du hast eine Minute Zeit, auf den Knopf deines OTP-Generators zu drücken und dieser gibt dir einen Zugangscode aus, welcher auch nur eine Minute gültig ist. Dieses Verfahren steht und fällt mit der Hardware. In allen Generatoren eines "Geheimbundes" ist ein irgendwie programmierter Timer enthalten, welcher zu einer bestimmten Zeit einen auf allen Generatoren identischen Zufallscode erzeugt.
    Aber jetzt entsteht erst das eigentliche Problem, welches die NSA elegant gelöst hat (per Hard-und Softwareverwanzung).
    Du musst diesen Zugangscode ja irgendwo eingeben....
    Also wieso nicht direkt die Nachricht an die OTP- Hardware übertragen und dort entschlüsseln? DAS wäre doch die Lösung! Nur schade, dass die dafür nötigen Chips alle von Firmen kommen, denen man bedenkenlos vertrauen kann...."Alda isch schwör, NIEMAND kennt unsere Verfahren! Trust me, i don´t be evil!"

    ciao
    Andy


    "Schlechtes Benehmen halten die Leute doch nur deswegen für eine Art Vorrecht, weil keiner ihnen aufs Maul haut." Klaus Kinski
    "Hint: Write comments after each line. So you can (better) see what your program does and what it not does. And we can see what you're thinking what your program does and we can point to the missunderstandings." A-Jay

    Wie man Fragen richtig stellt... Tutorial: Wie man Script-Fehler findet und beseitigt...X-Y-Problem

    4 Mal editiert, zuletzt von Andy (16. August 2015 um 11:08)

    • Offizieller Beitrag

    Ok, das wäre eine Möglichkeit.
    Man tauscht eine bestimmte Bildersammlung aus und verwendet je nach Datum oder zusätzlicher Nachricht ein bestimmtes Bild zum ver-/entschlüsseln. Hört sich ganz gut an! :)

    [Paranoid on]Als OTP dürfte man eigentlich jedes Bild nur einmal verwenden, aber dann müsste man auch die verwendeten Rechner unangreifbar machen.[Paranoid off]

  • siehe EDIT 2 im oberen Post

  • OT:

    Wer das selbst mal testen möchte schiesst ein Bild in einem völlig dunklen Raum und schaut sich die "Raw"-Daten an. Kommt dort "nichts" an, d.h. die untersten Bits der Pixel sind alle (!) null und nicht zufällig verteilt, dann rechnet der Kamera-Prozessor das Bild "schön".

    Sensorrauschen (Dunkelrauschen/Photonenrauschen), hat immer den gleichen Grund, physikalische Beeinträchtigung vom Sensor(Material) und dem unbeeinflussbaren "Beschuss" mit Photonen. Und ein Photonenstrom ist zufällig.

    Sensorrauschen ist ein zum größten Teil kein zufälliger sondern ein systematischer Effekt welcher lediglich stochastisch verteilt ist.
    Deswegen (und nur deswegen) kann er auch (z.B. über eine Dark-Field-Aufnahme) korrigiert werden.
    Sonst wäre dies schlicht nicht möglich.
    Da wird nicht etwas künstlich schöner gerechnet als es ist, sondern die eigentliche Informationen (die Photonenverteilung eines Motivs) von systematischen Abweichungen (Wärmeinduzierte Spannung, Ausleserauschen etc.) getrennt.
    Das Wärmerauschen wird stochastisch (bei selben Aufnahmebedingungen) bei jeder Aufnahme das selbe Muster erzeugen. Es ist ergo nicht zufällig.
    RAW-Bilder enthalten oftmals Zusatzinformationen zu eben diesen Verhalten, welche durch eine Dark-Field-Kalibrierung ermittelt werden können.
    Deswegen kann es zu dem witzigen Effekt kommen, dass JPGs einer Kamera Hot-Pixel enthalten und die RAW-Bilder nicht.

  • was wenn man verschiedene dinge miteinander kombiniert?
    z.b. eine Enigma Machine als Programm, welche als Month/Day/Time die daten von was anderem nimmt? sagen wir mal stink frech, die auswertung von bildfarbend eines bildes? (Um beim thema zu bleiben)
    wie ich drauf komme?
    Youtube:

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    nun bin ich mircht sicher ob es bereits eine "Enigma Machine" als Programm gibt (wohl mit sicherheit schon irgendwo)

  • Sensorrauschen ist ein zum größten Teil kein zufälliger sondern ein systematischer Effekt welcher lediglich stochastisch verteilt ist.

    Wobei wir wieder beim Problem wären, mir plausibel den Sinn der Wahrscheinlichkeitsrechnung/Stochastik erklären zu wollen, bzw. "Wahrscheinlichkeit" zu erklären!
    Fällt die Münze beim nächsten Wurf auf die Kopf- oder Zahlseite, DAS ist interessant!
    Und bisher kannte ich nur sehr wenige Mathematiker, die darauf ihr Leben verwetten würden!
    Ob die Münze bei den vorhergehenden 17 Würfen immer auf Zahl gelandet ist, spielt dabei nämlich überhaupt keine Rolle!
    Die Wahrscheinlichkeitsrechnung verwettet ihr Leben allerdings darauf, dass beim 18. Wurf endlich "Kopf" erscheint...genauso wie darauf zu Wetten, dass man aus dem Beutel mit 100 weißen Kugeln beim einmaligen Ziehen NICHT die eine Schwarze Kugel erwischt!


    Du sprichst beim Sensorrauschen von Wahrscheinlichkeitsverteilung, welche aber überhaupt nichts mit dem "Zufall" zu tun hat!
    Wie äußert sich denn bei einem einzigen Sensorpixel, also einer einfachen Fotodiode, ein "systematischer Effekt, welcher lediglich stochastisch verteilt ist"?
    Wie sieht die ungeglättete Ausgangsspannung dieser Diode bei Verwendung als "Solarzelle" aus? Das kann sich jeder mit einem Oszilloskop und einer unbeschalteten Fotodiode im Mikrovoltbereich anschauen! "Im statistischen Mittel" beträgt die Spannung bei entsprechendem Lichteinfall 0,68V. Schaue ich mir aber die Spannung "genau" an, dann sehe ich einen Bereich zwischen 0,68500 und 0,69500 Volt! Und das bei 10khz! Dort einen immer sich ändernden Wert abzugreifen, ist "Zufall"

    Die Fotodiode ist, abhängig von ihrer Verstärkerschaltung, als Einzelstück nur dann zu gebrauchen, wenn sie auf einen bestimmten Bereich kalibriert wurde!
    In einem Bildsensor ist das natürlich herstellungstechnisch nicht oder nur extrem schwer möglich, daher packt man die Dioden in ein 2D-Array und schaut sich deren Ausgabe bei "gleichmäßiger Beleuchtung" an. Und auch hier greift keinerlei Stochastik, es werden die "Hotpixel" erkannt und softwaretechnisch eliminiert/"nachkalibriert". Allen anderen Pixel geht es genauso! Dabei werden idR die benachbarten Pixel für eine Angleichung benutzt. Wenn man so will, ein "Blur" der Hardware :D
    Entstehen aus irgendwelchen Gründen nach einigen Wochen/Monaten/Jahren weitere Hot- oder fehlerhafte Pixel, können diese nachträglich per Software angepasst werden!

    Ich hatte mich dahingehend mal mit einem Mitarbeiter bei Nikon ( I am a Fanboy! ) unterhalten, und bin damals davon ausgegangen, dass bei einem (ja, es ist lange her) 5 Megapixel Sensor nur eine "Handvoll" Fehlpixel zu kompensieren sind. Tatsächlich werden TAUSENDE der Dioden "gesundgerechnet". Natürlich nicht bei einer "Knipse", da lebt man einfach damit, aber bei Kameras der obersten Leistungsklasse können einzelne Dioden "angepasst" werden. Sehr beeindruckende Technik übrigens...

  • den Sinn der Wahrscheinlichkeitsrechnung/Stochastik

    Die Grundlage einer wahnwitzigen Palette an Anwendungen und Innovationen welche ohne sie schlicht nicht denkbar wären.
    Allein der Begriff einer "Genauigkeit" wäre ohne die Stochastik nicht denkbar.
    Man könnte keine Raumfahrtmissionen planen da man nicht abschätzen kann wie nah man an den gewünschten Himmelskörper gelangt.
    Geräte würden reihenweise ausfallen weil keiner wusste welche Ausfallrate die verbauten Bauteile besitzen.
    Homöopathie wäre das Standardverfahren in der Medizin weil keiner ihre Wirkung und das anderer Verfahren prüfen könnte.
    Und das Schlimmste von allen: Alle Vermesser wären arbeitslos! ;)

    Man sollte halt nicht beim Münzen werfen und Würfeln stehen bleiben...

    Die Fotodiode ist, abhängig von ihrer Verstärkerschaltung, als Einzelstück nur dann zu gebrauchen, wenn sie auf einen bestimmten Bereich kalibriert wurde!

    Und wie lässt sie sich kalibrieren?
    In dem man die systematischen Anteile von den stochastischen (im einfachsten Fall durch Mittelwertbildung) trennt.
    Das Restrauschen ist der "zufällige" Anteil.

    Im Falle einer Dunkelaufnahme weiß man eindeutig, dass die Werte keine Nutzinformationen sind.
    Es handelt sich um einen systematischen Anteil der die späteren Nutzdaten überlagert.
    Wenn man bessere Informationen für die Nutzdaten (also ein realistischeres Bild) haben möchte muss man diesen Effekt eliminieren.
    Die Eliminerung des Dunkelrauschens wird ergo nicht, wie du dachtest, durch Glättung erreicht sondern durch Kalibrierung.

    Zum Thema Hotpixel in den RAW-Daten:
    In den RAW-Daten sind diese noch vorhanden - erst die RAW-Software macht aus den Zusatzinformationen (die Position der Hotpixel) aus den eigentlichen RAW-Daten die korrigierten Bilder. Und das ist auch durchaus legitim, da die korrigierten Werte der Realität mehr entsprechen als die unbehandelten Hotpixel.

    Schaue ich mir aber die Spannung "genau" an, dann sehe ich einen Bereich zwischen 0,68500 und 0,69500 Volt! Und das bei 10khz! Dort einen immer sich ändernden Wert abzugreifen, ist "Zufall"

    Du darfst nicht systematische Einflüsse mit stochastischen (was für dich anscheinend gleich zufällig bedeutet) zusammenwürfeln.
    Wenn du die Werte mehrmals abgreifst, wirst du z.B. als Messwert 0,69 V ermitteln. Das ist die wichtige Information. Eine komplett genaue Messung ist nicht möglich - deswegen hast du natürlich Schwankungen drin. Aber die Aussage, dass der wahre Wert z.B. mit 99% zwischen 0,68 und 0,7 V liegt kann dir erstmal keiner nehmen.
    Wären die abgegriffenen Werte wirklich wie du sagst rein "zufällig" wüsstests du gar nichts über sie. Ob der tatsächliche Wert 0V oder 1000 V beträgt - keine Ahnung.
    Und genauso verhält es sich mit dem Dunkelrauschen auf einem Kamerasensor.
    Das Rauschen hat einen systematischen Grund und erzeugt daher ein Muster mit einer bestimmten Verteilung. Darüber liegt noch ein bisschen Rauschen. Die Werte welche du als zufällig bezeichnest sind also nur nur zu einem gewissen Anteil wirklich zufällig. Und daher ist es keine künstliche Schönfärberei wenn man Sensordaten mit Dark-Field-Informationen korrigiert sondern eine begründete Eliminierung von unerwünschten Seiteneffekten, da die Daten damit tatsächlich verbessert und nicht einfach nur "verändert" werden.

  • was wenn man verschiedene dinge miteinander kombiniert?
    z.b. eine Enigma Machine als Programm, welche als Month/Day/Time die daten von was anderem nimmt? sagen wir mal stink frech, die auswertung von bildfarbend eines bildes? (Um beim thema zu bleiben)
    wie ich drauf komme?
    Youtube:

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    nun bin ich mircht sicher ob es bereits eine "Enigma Machine" als Programm gibt (wohl mit sicherheit schon irgendwo)

    Es würde mich sehr freuen, wenn du jetzt erstmal ein paar Dinge über Verschlüsselung liest. Denn deine "Ideen" sind so sprunghaft, dass es sich irgendwann nicht mehr lohnt zu erklären, wie und warum welchen Sinngehalt dein Post hat.

  • Aber die Aussage, dass der wahre Wert z.B. mit 99% zwischen 0,68 und 0,7 V liegt kann dir erstmal keiner nehmen.

    Und genau das ist mein Problem! Der "wahre Wert" einer einzelnen Messung ist eben NICHT 0,69 (auch wenn zu 99%) sondern eben 0,68734521.
    Natürlich könntest du jetzt, mit statistischen Mitteln die Messungenauigkeit eliminierend, davon ausgehen, dass dieser Wert auch nicht "genau" ist, sondern nur zu einem gewissen Anteil, da auch die Messergebnisse statistischen Einflüssen unterliegen.....

    Das Rauschen hat nur deswegen ein Muster mit einer bestimmten Verteilung, weil vorher die

    begründete Eliminierung von unerwünschten Seiteneffekten,

    vorgenommen wurde. Denn genau diese Ausreißer sind doch zufällig?!
    Ich habe mit der Statistik dasselbe Problem wie der Mann, der aus dem 10. Stock gefallen ist. Bei jedem Stockwerk, an dem er vorbeigeflogen kam hat er gesagt: "Bis jetzt ging´s gut!"


    Im Falle einer Dunkelaufnahme weiß man eindeutig, dass die Werte keine Nutzinformationen sind.
    Es handelt sich um einen systematischen Anteil der die späteren Nutzdaten überlagert.

    Das Kamerasystem wird aber doch genau auf diesen Fall "Dunkelaufnahme" abgestimmt! Das heißt nichts anderes, als dass bei einer Dunkelaufnahme (ein bestimmter statistischer Grenzwert wird unterschritten) ALLE, d.h. auch die Sensoren, welche ZUFÄLLIG (!!) von einem länger dauernden Photonenschauer angeregt werden, an ebendiesen Grenzwert angeglichen werden.

    Natürlich gehören die Ausreißer mit in den zu betrachtenden Wertebereich. Aus demselben Grund wird Lotto/Glücksspiel gespielt und gewonnen.


    Man könnte keine Raumfahrtmissionen planen da man nicht abschätzen kann wie nah man an den gewünschten Himmelskörper gelangt.
    Geräte würden reihenweise ausfallen weil keiner wusste welche Ausfallrate die verbauten Bauteile besitzen.
    Homöopathie wäre das Standardverfahren in der Medizin weil keiner ihre Wirkung und das anderer Verfahren prüfen könnte.
    Und das Schlimmste von allen: Alle Vermesser wären arbeitslos!

    - Mit Schätzungen befasse ich mich berufsweise, Schätzen hat aber nichts mit Wahrscheinlichkeiten zu tun, sonst bräuchte man nicht Schätzen sondern könnte sich auf Berechnungen verlassen!
    - Geräte fallen reihenweise aus, weil minderwertige Bauteile verwendet werden, und nicht weil die Ausfallrate dieser Bauteile in einem bestimmten Bereich liegen.
    - In der Medizin hilft ein Medikament 10000 Menschen, aber einer stirbt an der Unverträglichkeit. Für diesen einen ist es ziemlich unerheblich, ob das Medikament ein bestimmtes statistisches Verfahren erfolgreich (?!) durchlaufen hat! Aus welchem Grund sind selbst die Beipackzettel für 08/15-Medikamente seitenlang? Wieso schreibt man nicht einfach einen einzigen Satz hinein, "Machen sie sich keine Gedanken, die Möglichkeit einer Unverträglichkeit liegt statistisch nur bei 0,234 Promille".
    - Vor ca. 4500 Jahren haben Vermesser die Grundlage für den Bau noch heute stehender Pyramiden gelegt. Andere Bauwerke weltweit sind fast ebenso alt. Ich ging erst letzte Woche über eine von Römern vor 2000 Jahren erbaute Brücke. Auch bei deren Bau hat sicherllich ein Vermesser die Finger im Spiel gehabt!
    Es kann natürlich sein, dass heutige Vermesser ohne stochastische Mittel trotz tausendfach genauerer Meßgeräte aufgeschmissen sind!
    Ich gehe bei genauerer Betrachtung allerdings davon aus, wie sonst kann es sein, dass trotz hochmodernem Equipment die Halbwertszeit von Gebäuden immer kleiner wird?
    https://de.wikipedia.org/wiki/Schiersteiner_Brücke Da hat wohl die Stochastik nicht so ganz hingehauen...

    Zitat von http://www.ruhr-uni-bochum.de/geodaesie/download/Skript_Teil_3-Statistik.pdf

    In der Vermessung werden Messungen stets überbestimmt ermittelt, d.h. es werden mehrMessungen durchgeführt, als zur eindeutigen Bestimmung einer Lösung notwendig sind. DieÜberbestimmungen dienen sowohl der Kontrolle einer Messung als auch der Steigerung derGenauigkeit.

    Zitat

    SystematischeFehler sind Einflüsse, die Messergebnisse reproduzierbar in eine Richtung verfälschen. Sielassen sich deshalb nicht durch mehrfaches Messen eliminieren und müssen deshalbunbedingt vermieden oder richtig berücksichtigt werden.


    Die zufälligen Fehler sollten theoretisch bei einer unendlichen Zahl von Messwiederholungendurch Mittelbildung in ihrer Auswirkung vollständig verschwinden.

    Also überbestimmt Messen damit die Genauigkeit erhöht wird und gleichzeitig die systematischen Fehler unbedingt vermeiden. DAS ist ja spannend 8o


    Aber um den Bogen zum Thema zu schlagen:
    Sind Bildsensoren bzw. deren Daten nicht für den von uns benötigten "Zufall" nutzbar?

    ciao
    Andy


    "Schlechtes Benehmen halten die Leute doch nur deswegen für eine Art Vorrecht, weil keiner ihnen aufs Maul haut." Klaus Kinski
    "Hint: Write comments after each line. So you can (better) see what your program does and what it not does. And we can see what you're thinking what your program does and we can point to the missunderstandings." A-Jay

    Wie man Fragen richtig stellt... Tutorial: Wie man Script-Fehler findet und beseitigt...X-Y-Problem

    Einmal editiert, zuletzt von Andy (16. August 2015 um 21:25)

  • Das Rauschen hat nur deswegen ein Muster mit einer bestimmten Verteilung, weil vorher die [begründete Eliminierung von unerwünschten Seiteneffekten,]

    vorgenommen wurde. Denn genau diese Ausreißer sind doch zufällig?!

    Nein eben nicht.
    Jedes dieser Pixel hat eine bestimmte physische Beschaffenheit, welche deren Rauschverhalten in einer Dunkelaufnahme bedingt.
    So werden z.B. Pixel welche näher an einer Wärmequelle liegen höhere Messwerte erzeugen als solche welche davon weiter entfernt sind.
    Die Pixel selbst sind überdies alle unterschiedlich und eben nicht perfekt gleich beschaffen. Ihr Potentialtopf (also ihr Sättigungsvermögen) ist unterschiedlich und auch die Pixelfläche unterscheidet sich. Hot-Pixel haben z.b. einen viel zu kleinen Potentialtopf, weswegen man diesen Überlaufeffekt auf benachbarte Pixel beobachten kann.
    Es sind also systematische Ursachen welche ein reproduzierbares (und damit nicht zufälliges) Muster erzeugen.
    Wäre es zufällig wären z.B. die Hotpixel dauernd an anderen Positionen.
    Erst nach der Eliminerung des systematischen Anteils bleibt der zufällige Anteil übrig - nicht anders herum.

    Das heißt nichts anderes, als dass bei einer Dunkelaufnahme (ein bestimmter statistischer Grenzwert wird unterschritten) ALLE, d.h. auch die Sensoren, welche ZUFÄLLIG (!!) von einem länger dauernden Photonenschauer angeregt werden, an ebendiesen Grenzwert angeglichen werden.

    Welcher Photonenschauer?
    Dunkelrauschen ist zum größten Teil thermisch induziert. Heißt Elektronen werden aufgrund der Wärme gelöst und erhöhen so das gemessene Potential eines Pixels. Photonen kommen da überhaupt nicht vor. Dieses thermische Verhalten ist, wie gesagt, kein zufälliger Regen sondern durchaus systematisch. Erst wenn die Blende auf ist kommen die Photonen dazu und reißen Elektronen aus dem Sensormaterial.

    Schätzen hat aber nichts mit Wahrscheinlichkeiten zu tun, sonst bräuchte man nicht Schätzen sondern könnte sich auf Berechnungen verlassen!

    Doch. Schätzen basiert auf Stochastik. Ob du dabei konkret stochastische Berechnungen anstellst oder implizit (und unbewusst) eine Genauigkeitsvorstellung von Vorgängen in deinem Kopf hast ist hierbei egal - es ist und bleibt Stochastik.

    - Geräte fallen reihenweise aus, weil minderwertige Bauteile verwendet werden, und nicht weil die Ausfallrate dieser Bauteile in einem bestimmten Bereich liegen.
    - In der Medizin hilft ein Medikament 10000 Menschen, aber einer stirbt an der Unverträglichkeit. Für diesen einen ist es ziemlich unerheblich, ob das Medikament ein bestimmtes statistisches Verfahren erfolgreich (?!) durchlaufen hat! Aus welchem Grund sind selbst die Beipackzettel für 08/15-Medikamente seitenlang? Wieso schreibt man nicht einfach einen einzigen Satz hinein, "Machen sie sich keine Gedanken, die Möglichkeit einer Unverträglichkeit liegt statistisch nur bei 0,234 Promille".
    - Vor ca. 4500 Jahren haben Vermesser die Grundlage für den Bau noch heute stehender Pyramiden gelegt. Andere Bauwerke weltweit sind fast ebenso alt. Ich ging erst letzte Woche über eine von Römern vor 2000 Jahren erbaute Brücke. Auch bei deren Bau hat sicherllich ein Vermesser die Finger im Spiel gehabt!
    Es kann natürlich sein, dass heutige Vermesser ohne stochastische Mittel trotz tausendfach genauerer Meßgeräte aufgeschmissen sind!
    Ich gehe bei genauerer Betrachtung allerdings davon aus, wie sonst kann es sein, dass trotz hochmodernem Equipment die Halbwertszeit von Gebäuden immer kleiner wird?
    de.wikipedia.org/wiki/Schiersteiner_Brücke Da hat wohl die Stochastik nicht so ganz hingehauen...

    Wahrscheinlich hast du Recht - wir würden wahrscheinlich schon längst mit unserem privaten Raumschiff zum Urlaub nach Alpha Centauri fliegen wenn sich diese ganzen Idioten in nahezu allen Fachdisziplinen mal mit den wirklich wichtigen Sache beschäftigt hätten anstatt sich mit so nem Mumpitz wie "Stochastik" die Zeit zu vergeuden...

    Nur zum Thema alte Vermesser: Auch diese haben (zumindest weiß ich es von den Griechen) massiv auf Wiederholungsmessungen gesetzt.
    Das ist die Anwendung und Ausnutzung der Stochastik in Reinform...

    Und diese "tausendfach genaueren Meßgeräte" arbeiten nur deshalb tausendfach so genau weil sie intern die Stochastik ausnutzen. Ein Phasenbasiertes Streckenmessgerät misst z.b. bei jeder Auslesung hunderte kleine Einzelmessungen welche es dann zu einem einzigen Messwert ausgleicht und diesem dann dem Nutzer zurück gibt.

    Also überbestimmt Messen damit die Genauigkeit erhöht wird und gleichzeitig die systematischen Fehler unbedingt vermeiden. DAS ist ja spannend

    Jeder Vermesser lernt, dass es drei Fehlerarten gibt:

    • Grobe Fehler (Zahlendreher, falscher Messpunkt etc.) - diese kann man lediglich detektieren und rauschmeißen - mehr nicht.
    • Systematische Fehler - diese beeinflussen die Messwerte und müssen im Ausgleichungsmodell mit berücksichtigt werden. Durch Wiederholungsmessungen werden diese Einflüsse nicht eliminiert.
    • Zufällige Fehler - nicht durch ein systematisches Modell erfassbare Abweichungen, welche aber einer stochastischen Verteilungsart folgen und folglich durch Mehrfachmessungen erfasst werden können.

    Das wussten übrigens auch schon die alten Griechen...

    Aber um den Bogen zum Thema zu schlagen:
    Sind Bildsensoren bzw. deren Daten nicht für den von uns benötigten "Zufall" nutzbar?

    Ich habe bewusst OT vor meinen Beitrag geschrieben weil ich zum eigentlichen Thema nichts Fundiertes beitragen kann und möchte.
    Spannendes Thema und bisschen was weiß ich auch darüber aber wenn ich mir bewusst bin, dass ich zu einem Thema maximal Halbwissen beitragen kann versuche ich einfach mal die Klappe zu halten.

    Dennoch: Zufall ist nicht gleich Zufall. Welche Form des Zufalls benötigt Ihr? Eine Gleichverteilung? Hier sind die Daten erst dann zufällig wenn, wie gesagt, erst die systematischen Effekte abgezogen werden. Das verbliebene Restrauschen sollte dann tatsächlich hinreichend zufällig sein - aber halt normalverteilt.
    Ob und wie das in dem Fall weiterhilft - da ist jetzt für mich der Moment gekommen die Klappe zu halten ;)