• Offizieller Beitrag

    Wieder ein neuer Monat für das Foto des Monats

    Vom 1.12.2016 kann hier jedes Mitglied ein Bild bis zum 23.12.2016 an Mike, Nomarski oder Franz schicken.

    Wir stellen diese wieder hier hinein. Bitte selbst keine Bilder oder Kommentare hier einstellen, diese werden gelöscht.

    Ab dem 24.12.2016 findet die Abstimmung statt, welche bis zum Monatsletzten geht.

    Viel Glück

    Franz / Mike / Bernd

  • Danke für eure Stimmen und allen ein gutes neues Jahr!

    Eigentlich war das nur mal ein Test kleinerer Verbesserungen an meinem Fluoreszenzauflicht. Irgendwie hat mich das dann interessiert und fasziniert, wie weit man mit (m)einem Standard 14 und dem Gebastle gehen kann. Meine Objektive sind jetzt nicht so der Wahnsinn ...

    Aus dieser Aufnahme aus einem Stack von 11 Bildern mit Anregung 455 nm, 100x Öl, 10x Okular + Tucsen DigiRetina 16 bei ca. 4 MPixel

    wurde nach Dekonvolution das

    Die Tucsen Kamera hätte eine noch höhere Auflösung, was aber beim nachfolgenden image processing nichts gebracht hätte als tagelanges Rechnen. Mein PC hat zwar 8 GB RAM und 4 Kerne, mit so großen Bildern wäre er aber seeeehr beschäftigt.
    Die Dekonvolution ist mit einer theoretischen point spread function (PSF) gerechnet, die offensichtlich nicht ganz genau passt. Mit den Bakterien könnte man wahrschinlich schon eine ganz gute PSF aufnehmen und mit dieser dann rechnen.

    Ich hab dann mal vermessen ...


    Der Zellkern hat etwa einen Durchmesser von knapp 8 µm, die lokalen Intensitätsmaxima eine Halbwertsbreite von ca. 0,5 µm oder 500 nm. Innerhalb derer sind noch weitere Strukturen zu erahnen.

    Das Bakterium (oder sind es Diplokokken?) hat eine Länge von ca. 1,2 µm und eine Breite von ca. 0,8 µm.


    Wir bewegen uns daher bei etwa 1 bis 2 Wellenlängen des emittierten Lichts.

    VG
    Klemens

    Einmal editiert, zuletzt von kljosc (1. Januar 2017 um 14:50) aus folgendem Grund: Problem mit einem Bild

  • Hallo Klemens,

    gratuliere dir zu dem Foto und natürlich zu dem Gewinn des Wettbewerbes damit ! Der Effekt der Dekonvolution ist schon sehr beeindruckend. Kannst du diesbezüglich einen Ahnungslosen nähere Informationen zukommen lassen?

    Viele Grüße,
    Johannes

    Biologisches Mikroskop: Zeiss Standard 16
    Stereomikroskop: Lomo MBS 10
    Kameras: EOS 1100D, EOS 1000D, EOS 1000Da
    Ihr aber seht und sagt: Warum? Aber ich träume und sage: Warum nicht? George Bernard Shaw

  • Hallo Johannes,

    die Dekonvolution (Entfaltung) ist die Umkehrfunktion einer Faltungsoperation. Unschärfe, Verwackler oder auch Eigenschaften eines realen Mikroskops (airy disc, Streuung an Partikeln, ...) kann man als eine der beiden Faltungsfunktionen (point spread funktion PSF) verstehen. Wird das unverfälschte Bild (das so nicht beobachtbar ist, da die Beobachtung eine Faltung mit einer PSF ist) mit einer PSF gefaltet so entsteht das reale aufgenommene Bild. Kehrt man die Faltung um, so entsteht das ursprüngliche unverfälschte Bild. Die PSF ist jedoch nur selten exakt bekannt. Daher errechnet man sich über bekannte mathematische Funktionen der Optik eine PSF und führt mit dieser und seinem realen Bild eine Dekonvolution durch. Das klappt mehr oder weniger gut.

    Alternativ dazu kann man eine PSF auch empirisch ermitteln, indem man von einem (unendlich kleinen) leuchtenden Punkt einen Stack aufnimmt und die PSF berechnet, was relativ einfach ist bei einem Punkt. Mit dieser PSF kann man dann reale Bilder (die natürlich mit der selben Einstellung des Mikroskops aufgenommen wurden) zurückrechnen. In der Praxis geht das mit fluoreszierenden Polymerpartikeln, die den Goldpreis vor Neid erblassen lassen. Also für mich unbezahlbar. Ich suche mir kleinste fluoreszierende Partikel auf dem zu untersuchenden fertigen Objektträger, wie z.B. Bakterien, nehme einen Stack auf und nehme diesen als PSF.

    Es gibt auch eine blind deconvolution, bei der aus den Bildinformationen eine PSF errechnet wird, die ein möglichst gutes Ergebnis liefert (likelihood Methode). Das geht z.B. mit Matlab ganz gut.

    Die Berechnung funktioniert über meist 3 bis 4 dimensionale Matrixoperationen, wobei zwei Dimensionen von der Größe des Bildes und eine von der Anzahl Stackslices abhängen (X,Y,Z). Dann gibt's z.B. noch 3 Farben RGB als eine Dimension.

    Wie man erahnen kann, explodiert der Rechenaufwand mit der Größe der Bilder ....

    Der Mercedes unter den Programmen ist wahrscheinlich Huygens. Es geht aber auch mit ImageJ (hier wird das auch ganz gut erklärt), ICY oder Matlab Image Processing Toolbox.

    VG
    Klemens

  • Hallo Klemens,

    vielen Dank für deine Erklärung!! Das scheint ein äußerst spannenderes Thema zu sein. Zur "Kalibrierung" muss es also die selben Voraussetzungen (Schichtdicke, Medium...) geben wie bei eigentlichen zu beobachtenden Objekt.

    In der Praxis geht das mit fluoreszierenden Polymerpartikeln, die den Goldpreis vor Neid erblassen lassen.

    Hast du schon versucht sie selber herzustellen? Einen fluoreszierenden Kunststoff wie die Hüllen von Leuchtmarkern mit Nassschleifpapier bearbeiten und das Schleifwasser eventuell noch filtern, so etwa wäre mein Ansatz dazu. Die Partikel für meine Experimente mit der optischen Pinzette hatte ich so hergestellt, allerdings nur mit einem Schleifpapier der Körnung 800 und ohne filtern.

    Viele Grüße,
    Johannes

    Nachtrag: Es gibt sogar Körnung 7000 https://www.feinewerkzeuge.de/schleifen.html

    Biologisches Mikroskop: Zeiss Standard 16
    Stereomikroskop: Lomo MBS 10
    Kameras: EOS 1100D, EOS 1000D, EOS 1000Da
    Ihr aber seht und sagt: Warum? Aber ich träume und sage: Warum nicht? George Bernard Shaw

    Einmal editiert, zuletzt von Johannes Kropiunig (1. Januar 2017 um 22:10)

  • Hallo Klemens,

    danke für deine Antwort!

    Geschliffen hatte ich lediglich mit einem 2000er Schleifpapier und dieses immer in einer Petrischale mit destillierten Wasser ausgewaschen. Hat zwar ein wenig gedauert, aber irgendwann hat es angefangen leicht zu fluoreszieren. Das Schleifwasser habe ich dann mit einer Einwegspritze ohne Nadel aufgezogen und durch einen, man kennt es aus diversen Filme, Zigarettenfilter gefiltert. So, das war das Geheimrezept ;)

    Viele Grüße,
    Johannes

    Biologisches Mikroskop: Zeiss Standard 16
    Stereomikroskop: Lomo MBS 10
    Kameras: EOS 1100D, EOS 1000D, EOS 1000Da
    Ihr aber seht und sagt: Warum? Aber ich träume und sage: Warum nicht? George Bernard Shaw

  • Erst einmal bin ich schwer beindruckt von der Detailverbesserung .
    Das Bild vor der Dekonvolution ist ja nicht so nett .
    ich bin auch immer erschrocken , wie schlecht das Kamerabild gegenüber dem Augeneindruck ist .
    Entspricht denn das dekonvolutierte Bild mehr dem mentalen Eindruck der Szenerie ?
    gruß carypt

    Nachtrag : Wenn man dem Körper gänzlich andere Informationsverarbeitungswege zubilligt , wie zum Beispiel andere Behandlung der Welle- oder Teilchen-Detektion des Doppelspaltversuches sieht der Körper womöglich gänzlich andere Beugungsbilder .

    2 Mal editiert, zuletzt von carypt (29. Januar 2017 um 14:40)

  • Hallo carypt,

    "Entspricht denn das dekonvolutierte Bild mehr dem mentalen Eindruck der Szenerie ?"
    Glaub ich nicht. Die Dekonvolution rechnet die Streuungen und andere optische (Wellen)effekte heraus indem du die PSF vorgibst, so dass das - nahezu - reale Objekt übrig bleibt. Das Auge mit der CPU dahinter kann diese Effekte nicht wegrechnen. Ich denke, dass eher die unterschiedlichen Eigenschaften der Sensoren (Kamerachip und Auge) den Wahrnehmungsunterschied ausmachen. Schon die Verteilung der "Pixel" ist bei beiden verschieden, dann die Umsetzung des Photonenstroms in das Sensorsignal und der enorme Dynamikbereich des Auges von etwa 11 Größenordnungen (der aus Blende und Signalverarbeitung entsteht). Sehr interessante Arbeit.

    Schön an der Dekonvolution ist, dass alle Bilder des Stacks entfaltet werden und so ein relativ scharfes dreidimensionales Bild erstellt werden kann. Mit geeigneter Software lassen sich dann Volumina errechnen (so ähnlich, wie man es bei Finiten Elementen, Finiten Volumina und dergleichen macht) und mit einem 3D-Viewer betrachten. Ist aber viel Rechenarbeit....

    Was mich momentan noch mehr fasziniert ist die Fourier Ptychographie
    Das Buch Fourier Ptychographic Imaging: a MATLAB Tutorial hab ich mir bestellt, leider mit langer Lieferzeit. An der Beleuchtung arbeite ich schon :D Mal sehen, ob ich das hinbringe
    Im Gegensatz zur Dekonvolution gibt es bei der FPM keine Plugins für ImageJ. Matlab hab ich zur Verfügung. Evtl. geht es aber auch mit Octave oder Scilab.

    VG
    Kemens

  • hallo Klemens ,
    die Interpretation des Gesehenen obliegt ja sowieso dem Gehirn , egal ob das Bild durchs Okular oder vom dekonvutionierten Bild empfangen wird . Von daher war meine Frage nicht besonders klug .
    Man erwartet harte Oberflächengrenzen , die sicher auch da sind , nur reflektiert das Licht eben nicht so ideal wie man es gerne hätte . Man sieht was man sehen kann , fettig-seifige Membranen in Flüssigkeit, wie sie eben erscheinen , das hast Du aber schon sehr gut dargestellt .
    recht auführliche Augeninfo : http://webvision.med.utah.edu/
    Das Errechnen des Gedankeninhalts einer Augenabbildung ist wahrscheinlich für das Human Brain Projekt https://www.humanbrainproject.eu/ interessant , läßt sich aber wohl nicht in einen schärferen Ausdruck umwandeln .
    Obwohl ich schon wissen möcht , wie das beidseitige Auge mit Beugungsmaxima und verschränkten Photonen umgeht , ob solche Informationen bis auf die Gedankenebene weiter gereicht werden und dort in ideale Formideen gedacht werden . Wahrscheinlich wird das meiste unterwegs vergessen . In diesem Sinne .
    gruß carypt

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!