Ein Buch aus DNA - SciFi-Forum

Ankündigung

Einklappen
Keine Ankündigung bisher.

Ein Buch aus DNA

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

    #16
    Mit dieser Technik können wir ja schon Tante Käthe in den Gamma-Quadranten schicken:

    Bioneurales Gelpack ? Memory Alpha, das Star Trek Wiki
    Slawa Ukrajini!

    Kommentar


      #17
      Zitat von irony Beitrag anzeigen
      Bei eukaryotischen Lebewesen ist das anders.
      Nichtkodierende Desoxyribonukleinsäure ? Wikipedia
      Nur ist die Integration von DNA in Eukaryoten wiederum sehr viel schwieriger.
      Und der Datenverlust durch Mutation ist erheblich.
      Und die Speicherdichte ist mindestens hunderttausendfach geringer. Weil die Zellen außer DNA ne Riesenmenge anderes Zeug enthalten. Eine menschliche Zelle hat 3 Milliarden Basenpaare. 1 Basenpaar wäre 1 Bit. So toll ist die Bibliothek dann doch nicht.
      Und auch das gezielte Auslesen gestaltet sich schwiergier.

      Was willst du eigentlich?

      Kommentar


        #18
        Zitat von xanrof Beitrag anzeigen
        Hier widersprichst du dir selbst, denn weiter oben schreibst du:
        Nein, die M-Disc ist nicht für die Ewigkeit. Sie ist nur für heutige sinnvolle Zwecke ausreichend. Anders als eine normale DVD ist eine M-Disc dauerhaft genug, um Daten 100 Jahre zu speichern, also für eine Zeit, die die Lebensdauer eines Menschen überschreitet. Wenn ich etwas für mich selbst speichere, dann will ich, dass es so lange hält, wie ich und/oder meine Kinder leben. Danach kann man es umkopieren, oder es war auch nicht wichtig. Für die absolute Ewigkeit ist das nicht. Aber es reicht erst einmal aus.


        Zitat von xanrof Beitrag anzeigen
        Fuer zukuenftige Generationen wird es technisch recht einfach sein, alte Datentraeger jeglicher Form auszulesen. Sie muessen es dann aber auch verstehen koennen.
        Am sinnvollsten sind wahrscheinlich Bilder, z.B. im Bitmap-Format. Die lassen sich am leichtesten interpretieren, auch wenn Millionen Jahre vergangen sind.

        Kommentar


          #19
          Zitat von irony Beitrag anzeigen
          Am sinnvollsten sind wahrscheinlich Bilder, z.B. im Bitmap-Format. Die lassen sich am leichtesten interpretieren, auch wenn Millionen Jahre vergangen sind.
          Meinst du, auch groessere Mengen an Text in einem Bild unterzubringen?
          Hm, ich weiss nicht, Text ist doch auch nur eine Abfolge von kleinen Zeichnungen. So hat man auch gleich die richtige Reihenfolge.

          Bzgl reiner Abbildungen sollte man aber wirklich nur nicht-komprimierende Datenformate verwenden.
          .

          Kommentar


            #20
            In dem Beispiel wurden die Texte als HTML-Code, außerdem 11 JPGs und 1 Javascript codiert.

            Kommentar


              #21
              Zitat von xanrof Beitrag anzeigen
              Meinst du, auch groessere Mengen an Text in einem Bild unterzubringen?
              Nein, ich meine einfach nur Bilder, die etwas zeigen. Z.B. wenn man einen Film wie "Titanic" Bild für Bild anschaut, versteht man eine ganze Menge, auch ohne Sprache. Das Drehbuch als Text, da ist nichts mehr zu verstehen, wenn man die Sprache nicht kennt. Texte nützen nichts, wenn Sprachen verloren gehen.

              Kommentar


                #22
                Zitat von Dannyboy Beitrag anzeigen
                Besser nicht, Mutationen würden die Daten dort eher verändern.
                Das hängt ganz von der Codierung ab. Fehlerkorrekturverfahren sind auch heute schon Standard bei der elektronischen Speicherung und Übertragung von Daten. Es spricht prinzipiell nichts dagegen, angemessene Verfahren auch bei einer biologischen Codierung vorzunehmen, oder? Gibt es davon abgesehen überhaupt (schon) einen sinnvollen Anwendungszweck?

                Kommentar


                  #23
                  Zitat von Trivialistiker Beitrag anzeigen
                  Gibt es davon abgesehen überhaupt (schon) einen sinnvollen Anwendungszweck?
                  Die Archivierung großer Datenmengen auf kleinem Raum.

                  Kommentar


                    #24
                    Zitat von irony Beitrag anzeigen
                    Die Archivierung großer Datenmengen auf kleinem Raum.
                    OK. Und wie lange würde es dauern, sagen wir mal effektiv ein TB an Daten mittels Gensequenzer zu »lesen«? Wird man in Zukunft so eine akzeptable Lesegeschwindigkeit erreichen können? Und nebenbei wird doch auch das Medium (also der DNA-Strang) beim »Lesen« zerstört? Ich sehe eben den Anwendungsfall nicht so wirklich.

                    Kommentar


                      #25
                      Zitat von Trivialistiker Beitrag anzeigen
                      OK. Und wie lange würde es dauern, sagen wir mal effektiv ein TB an Daten mittels Gensequenzer zu »lesen«?
                      Wenn ein Gensequenzer 400 Megabasenpaare pro Tag schafft, und ein TB etwa 500.000 Byte hat, sieben bis acht Minuten.

                      Kommentar


                        #26
                        Zitat von Trivialistiker Beitrag anzeigen
                        Das hängt ganz von der Codierung ab. Fehlerkorrekturverfahren sind auch heute schon Standard bei der elektronischen Speicherung und Übertragung von Daten. Es spricht prinzipiell nichts dagegen, angemessene Verfahren auch bei einer biologischen Codierung vorzunehmen, oder?
                        Klar. Aber auch das hat seine Grenzen. Und ich sehe den Vorteil nicht.
                        Hier ging es gerade darum, ob man die DNA in Lebewesen speichern sollte, oder auf DNA-Chips.
                        Und da spricht für die CHips der Umstand, das sie tausendfach mehr Daten fassen können, die viel einfach ablesbar sind.


                        Gibt es davon abgesehen überhaupt (schon) einen sinnvollen Anwendungszweck?
                        Du meinst, außer Bücher in milliardenfacher Auflage?
                        Ne, das ist mehr Grundlagenforschung.
                        Aber die Möglichkeit, den gesamten digitalen Datenbestand der Erde theoretisch auf ein Medium im Miniformat zu speichern, das tausende Jahre halten kann, ist doch cool.

                        Und da in diesem Technologiebereich die Kosten jährlich um den Faktor 5 bis 12 sinken, wird das auch absehbar sehr sehr günstig.
                        Noch nicht, aber bald.


                        .
                        EDIT (autom. Beitragszusammenführung) :

                        Dannyboy schrieb nach 3 Minuten und 8 Sekunden:

                        Zitat von Trivialistiker Beitrag anzeigen
                        Und nebenbei wird doch auch das Medium (also der DNA-Strang) beim »Lesen« zerstört? Ich sehe eben den Anwendungsfall nicht so wirklich.
                        Du analysierst ja die Kopie, nicht den Strang auf dem Chip.
                        Jeder Strang ist 159 Nukleotide lang. 96 nt als Information, den Rest als Addresse und für den Kopievorgang. Die dazu nötigen Instrumente findet man in der Natur.


                        .
                        EDIT (autom. Beitragszusammenführung) :

                        Dannyboy schrieb nach 1 Minute und 7 Sekunden:

                        Zitat von irony Beitrag anzeigen
                        Wenn ein Gensequenzer 400 Megabasenpaare pro Tag schafft, und ein TB etwa 500.000 Byte hat, sieben bis acht Minuten.
                        Die besten Prototypen schaffen zur Zeit schon mehr als das zehnfache.

                        Allerdings wird der Kopiervorgang der begrenzende Faktor sein. Daher wird diese Technik kaum Einsatz für Alltagsmedien erhalten.
                        Zuletzt geändert von Dannyboy; 18.08.2012, 14:59. Grund: Antwort auf eigenen Beitrag innerhalb von 24 Stunden!

                        Kommentar


                          #27
                          Zitat von Dannyboy Beitrag anzeigen
                          Du analysierst ja die Kopie, nicht den Strang auf dem Chip.
                          (...)
                          Allerdings wird der Kopiervorgang der begrenzende Faktor sein. Daher wird diese Technik kaum Einsatz für Alltagsmedien erhalten.
                          ok, also wenn ich das richtig verstehe, wird zum Lesen der Informationen zuerst eine Kopie angefertigt und diese dann gelesen?
                          Das Problem dabei waere der Kopiervorgang, welcher "Fehler" in der Informationskette erzeugen kann, was aber bei einer kleinen Anzahl von Kopien nicht gravierend waere?
                          Und deswegen kann man auch nicht beliebig viele Kopien von einer Kopie von einer Kopie erzeugen?

                          Richtig verstanden?

                          Klingt wie der feuchte Traum der Content-Industrie.
                          .

                          Kommentar


                            #28
                            Zitat von xanrof Beitrag anzeigen
                            ok, also wenn ich das richtig verstehe, wird zum Lesen der Informationen zuerst eine Kopie angefertigt und diese dann gelesen?
                            Das Problem dabei waere der Kopiervorgang, welcher "Fehler" in der Informationskette erzeugen kann, was aber bei einer kleinen Anzahl von Kopien nicht gravierend waere?
                            Und deswegen kann man auch nicht beliebig viele Kopien von einer Kopie von einer Kopie erzeugen?

                            Richtig verstanden?

                            Klingt wie der feuchte Traum der Content-Industrie.
                            Das wäre eigentlich kein Problem. Die Fehler treten schließlich nicht immer an der Selben stelle auf. Man nüsste eigentlich nur mehrere Kopien vergleichen um auf das Orginal schließen zu können. So hat man auch schon das Erbgut ausgestorbener Spezies untersucht, wenn sich aus meherern Funden DNA hat extrahieren lassen.

                            Außer ich habe dich jetzt falsch verstanden

                            Kommentar


                              #29
                              Zitat von xanrof Beitrag anzeigen
                              ok, also wenn ich das richtig verstehe, wird zum Lesen der Informationen zuerst eine Kopie angefertigt und diese dann gelesen?
                              Das Problem dabei waere der Kopiervorgang, welcher "Fehler" in der Informationskette erzeugen kann, was aber bei einer kleinen Anzahl von Kopien nicht gravierend waere?
                              Man erzeugt viele Kopien. Da Fehler dann zufällig und an unterschiedlicher Stelle auftreten, können sie gefunden werden.
                              Ein paar Bits gehen natürlich trotzdem mal flöten, aber damit kann die Informatik ja umgehen.

                              Kommentar


                                #30
                                Zitat von Dannyboy Beitrag anzeigen
                                Bücher über DNA gibt es ja schon einige.
                                Aber George Church hat sein Buch "Regenesis: How Synthetic Biology Will Reinvent Nature and Ourselves" nun direkt in DNA-Form kodiert.
                                Ich weiß ja nicht, ob das Buch so schon im Handel ist (Nein, ich glaube nicht), aber mit einer Auflage von 70 Milliarden Exemplaren dürfte es so schnell nicht ausverkauft sein (Und dürfte damit wohl die Bibel als meistgedrucktes Buch der Welt ablösen).
                                Da die verwendete Speichertechnologie immerhin 5500 Terabits pro Kubikmilimeter an Daten erfassen kann, ist die Gesamtauflage auch nicht besonders Voluminös.
                                Nachteil ist natürlich, das die Lesegeräte für die Bücher noch etwas teuer sind. So ein DNA-Sequenziergerät kostet ja mal locker ab 10.000 Euro aufwärts.
                                Und die Lesegeschwindigkeit ist auch nicht so toll.


                                Das ganze wäre also mehr was für das Archiv. Immerhin könnten 4 g davon schon alle digitalen Daten der Welt speichern.
                                Da die DNA in kleinen Datenblöcken a 96 Bit geteilt ist, ist sie ziemlich stabil.
                                Mit ein paar Back-up-Kopien könnte man so Daten über hunderttausende Jahre speichern.
                                Ein paar Fragen.

                                Warum kann man mit herkömmlicher oder zukünftiger nicht-organischer Technik keine solchen Speicherdichten erhalten?

                                Wäre das ein Speichermedium für die Zukunft, auch für Wald-und-Wiesen-Geräte (Smartphones, PCs, Fernseher, usw.)? Werden die Lesegeräte irgendwann billig genug sein?

                                Kommentar

                                Lädt...
                                X