#2: Herausforderungen der Datenarchivierung – Legacy Systeme

Shownotes

In dieser Episode des DADEN DOKU DIGITAL-Podcasts diskutieren Julian Weber und Philipp Krubasik von biomedion über die Herausforderungen und Best Practices im Bereich der Datenarchivierung, insbesondere im Kontext von Legacy-Systemen und Datenmigration in der Pharma- und Biotechnologie. Sie stellen 2 Workflows vor, für eine solide Archivstrategie, um Daten langfristig lesbar zu halten und regulatorische Anforderungen zu erfüllen. Zudem wird das Thema Ransomware und die Notwendigkeit eines sicheren Datenmanagements angesprochen. Abschließend wird ein Ausblick auf zukünftige Entwicklungen im Wissensmanagement und die Verknüpfung von Forschung und Qualitätssicherung gegeben.

Die wichtigsten Takeaways:

  • Das Thema Archivierung ist komplex und erfordert eine durchdachte Strategie.
  • Legacy-Systeme können zu Abhängigkeiten führen, die sich durch ein Archiv lösen lassen
  • Daten müssen langfristig lesbar und sicher archiviert werden.
  • USB-Sticks sind im Labor keine sichere Lösung für die Datenspeicherung. Achtung: „Auditfalle“!
  • Ein gutes Archiv hilft, regulatorische Anforderungen zu erfüllen.
  • Die Verknüpfung von Forschung und Qualitätssicherung ist entscheidend.
  • Die Archivierung kann helfen, Kosten zu sparen und die Effizienz zu steigern.
  • Weitere Informationen in den nächsten Folgen und auf www.biomedion.com

Fragen, Feedback und Co? Ihr könnt uns gerne auch direkt schreiben an: info@biomedion.com

Hört rein! Für viele neue Erkenntnisse und Detail- und Hintergrundinformationen zum Thema.

Die Podcast-Hosts:

Julian Weber, Business Development Consultant, biomedion GmbHhttps://www.linkedin.com/in/julian-weber-digitallab/

Dr. Philipp Krubasik, Digital Lab Champion, biomedion GmbHhttps://www.linkedin.com/in/philippkrubasik/?originalSubdomain=dewww.biomedion.com

Dieser Podcast ist eine Produktion von STUDIO VENEZIA – the podcast company: https://www.studiovenezia.de/

Transkript anzeigen

00:00:00: Willkommen zu Datendoku Digital, der Pharma-Archiv-Podcast.

00:00:05: Hier geht's um digitale

00:00:07: Archivierung,

00:00:07: Wissensmanagement und KI im Pharma-Bereich.

00:00:10: Klar

00:00:10: erklärt und praxisnah gedacht.

00:00:16: Hallo und herzlich willkommen, liebe Wiederzuhörer bei Datendoku Digital, der Pharma-Archiv-Podcast mit mir, Julian Weber und meinem lieben Kollegen.

00:00:25: Philipp Probasek, hallo Julian, wie geht's dir

00:00:28: heute?

00:00:28: Hi, Philipp, mir geht's super und dir.

00:00:30: Auch gut.

00:00:31: Reema, vielleicht sollten wir uns nochmal bei unseren Zuhörern und Wiederzuhörern bedanken für das tolle Feedback auf Folge eins unserer ersten Folge Backup vs Archiv.

00:00:41: Kann mir ganz spannende Rückfragen noch und wie wir vermutet hatten, war doch bei manchen einiges noch offen oder?

00:00:49: Ja, fand ich auch.

00:00:50: Es war ja wirklich spannend.

00:00:51: Wir waren ja auch ein bisschen nervös.

00:00:52: Wir sind ja selber Neulinge hier und das war schön zu sehen.

00:00:57: Ich denke, dass wir auch offene Fragen noch individuell beantworten.

00:01:02: Und ich freue mich jetzt auf die zweite Runde.

00:01:05: Absolut.

00:01:06: Und man muss ja dazu sagen, das Thema Archiv und Backup, gerade die Archivierung und Automation, ist ja doch schon durchaus ein komplexes Thema.

00:01:15: Ein komplexes, ja, aber auch eins, das... Doch die Leute interessiert haben wir festgestellt.

00:01:22: Wir waren jetzt letztens auf der Konferenz in Basel, haben einen Vortrag gehalten.

00:01:26: Auch da war das Feedback sehr positiv.

00:01:29: Das ermutigt uns hier auch weiterzumachen.

00:01:32: Genau, vielleicht nochmal Auftrag in eigener Sache.

00:01:34: Wir waren auf der Biotech X oder Biotechs.

00:01:36: Ganz tolle Messe.

00:01:38: für alle, die sich im Bereich Pharma, Pharma, Software, Automation interessieren, sollte das auf alle Fälle ein interessantes Ziel sein, oder?

00:01:48: Genau.

00:01:48: Diese Folge dreht sich ja vor allen Dingen um das Thema Legacy-Systeme und Datenmigration und Risiken und Best Practices, die wir heute mal besprechen wollen.

00:01:56: Ich glaube, es bietet sich auch an, Philipp, dass wir uns noch mal vorstellen für alle die, die vielleicht heute sagen, dass es besonders interessant und die noch nicht in erster Folge gehört haben, wer wir eigentlich sind.

00:02:06: Genau.

00:02:07: Lass mich mal ganz kurz anfangen.

00:02:08: Fangen wir ruhig an, Philipp.

00:02:10: Mein

00:02:10: Name ist Philipp Krobasek.

00:02:12: Ich bin Biologe mit Fleisch und Blut und Herz und Seele.

00:02:17: Und habe mich dann in meiner Promotion auch mit bioinformatischen Themen auseinandergesetzt und bin seitdem eigentlich in der IT-seitigen Unterstützung von Pharma und Biotechnologieunternehmen tätig.

00:02:29: Viel in Datenintegrationen, Wissensmanagement.

00:02:32: Wie bringe ich sinnvoll die Daten für die Forschung und Entwicklung im Life Science Bereich zusammen?

00:02:39: Und ein jetziger Teilaspekt ist die Archivierung, wo viele Aspekte reinspielen, die mich in den letzten zwanzig Jahren beschäftigt haben.

00:02:48: Und ich freue mich heute darüber, nochmal ein bisschen zu reden mit euch.

00:02:54: Super, dann mache ich doch gleich weiter an der Stelle.

00:02:57: Mein Name ist Julian Weber.

00:02:58: Ich komme aus der Laborpraxis.

00:03:00: Ich beschäftige mich meine ganze Karriere aus der praktischen Anwendung von Laborsystemen und der Softwareanwendungen, die mit dem Labor zu tun haben.

00:03:09: Genau.

00:03:09: Und da ergänzen wir uns eigentlich ziemlich gut, Philipp.

00:03:13: Ja, das ist richtig.

00:03:14: Und heute bist du da im Lied.

00:03:16: Ich glaube, heute geht es ja um Legacy-Themen im Labor, Legacy-Systeme.

00:03:22: Und ich glaube, da hast du einiges an Erfahrung, dass du teilen kannst.

00:03:27: Und wir werden dann versuchen zu beleuchten, wie man damit in Zukunft umgehen kann und wie auch Archive dabei hilfreich sein können.

00:03:35: Ja, das ist ein ganz wichtiger Punkt.

00:03:37: Da sind wir ja eigentlich auch darauf gestoßen, wie wichtig eine gute Archivstrategie eigentlich sein kann, wenn man sich Labor-Landschaften so anschaut.

00:03:48: Ganz besonders die doch sehr unterschiedlich gearteten Software, mit denen man so arbeitet.

00:03:54: Also angefangen beim Chromatographiedatensystem über vielleicht einfache Computer-gestützte Systeme.

00:04:01: Ich sage jetzt mal das UV-Spektrometer mit dem PC dran.

00:04:04: Das Problem, was man da eben hat, was ich zumindest aus meiner langjährigen Labor-Erfahrung gesammelt habe, ist doch, dass man sich in gewisse Abhängigkeiten begibt.

00:04:13: Datenabhängigkeiten, Geräteabhängigkeiten, weil ich vielleicht sage, ich habe jetzt seit zehn Jahren ein riesiges Chromatographiedatensystem im kleinen Server, also mit ganz vielen kleinen PCs und zentralen Servers zu stehen, abgekürzt CDS und da sammle ich natürlich jeden Tag Tonnen Terabytes oder mindestens mal Gigabytes an Daten, weil ja natürlich ganz viele dieser Chromatographiesysteme Daten produzieren.

00:04:39: und die Frage ist natürlich, was mache ich eigentlich in zehn Jahren mit diesen ganzen Daten?

00:04:45: denn die müssen ja durchaus zwanzig vielleicht sogar dreißig Jahre aufgehoben werden.

00:04:49: Du meinst, ah, du meinst, dass die Daten dann in diesen Systemen gespeichert werden.

00:04:54: Richtig,

00:04:54: ja.

00:04:55: Genau, ich habe ja, das sind die

00:04:57: Anbieter zusammenkommen.

00:04:58: Meinst du so, dass das vom Geräteanbieter die Software ist, in die das gespeichert wird.

00:05:03: Genau, also ich produziere ja mit Chromatografen wahrscheinlich in Großteil meiner analytischen Daten, die ich im Pharma-Labor klassische Qualitätskontrolle über Forschungsdaten vielleicht erzeugte.

00:05:16: Chromatogramme meistens, meistens Spektrogramme, genau.

00:05:20: Und das sind ja Rohdaten, das heißt, die müssen nach der OECD, wir haben es bei der ersten Folge beantwortet schon, oder mal ein bisschen tiefer interpretiert, müssen die... original files ja archiviert werden die roten müssen in originaler form archiviert werden.

00:05:34: so schreibt es die oecd richtlinie ja offiziell vor so.

00:05:39: und nun lässt es ja so dass ich diese systeme dass ich dort files produziere massenhaft massenhaft an daten files.

00:05:47: und die frage ist ja Was mache ich damit, wenn ich vielleicht in zehn Jahren eine neue Software benötige?

00:05:51: Weil die ist einfach nicht mehr up-to-date.

00:05:53: Da gibt es den Windows, die ist mittlerweile schon, ja, wer weiß, irgendwelche neuen Windows-Versionen, die nicht mehr kompatibel sind, neue Software, auch für die Server.

00:06:01: Das heißt, irgendwann muss ich ja, um sicher zu sein, meinen ganzen Gerätepark auch updaten, neue Geräte hinzukaufen, die vielleicht von der alten Software nicht mehr angesteuert werden.

00:06:10: Vielleicht

00:06:11: mal Geräte von anderen Anbietern.

00:06:13: Genau, das ist nochmal ein ganz ganz anderer Punkt von anderen Anbietern, dass ich sage, hey, Ich möchte eigentlich mich auch vielleicht mal verändern, ich möchte statt Waters Thermo oder wie auch immer irgendein anderen Hersteller mit reinbringen, der vielleicht mit meiner derzeitigen Software gar nicht so gut angesteuert wird.

00:06:28: Das heißt, ich habe jetzt ein Datensilo, was ich irgendwie verwalten muss, wo ich irgendwie mit umgehen muss.

00:06:35: Und das ist die Frage der Fragen.

00:06:37: Wir hatten ja ganz viele, kannst du dich erinnern, Philipp, Gespräche auf der Biotech X oder Biotechs?

00:06:42: Ich sage jetzt Biotech X einfach mal, wo ganz viele Leute zu uns kam und sagten, wie kann ich garantieren, dass ich meine heute aufgenommenen Daten, also ich sage es mal Chromelianwaters, wie auch immer sie heißen, dass ich die in zwanzig Jahren noch lesen kann.

00:06:59: Das muss ich ja eigentlich.

00:07:02: Und die Frage ist gar nicht so einfach zu beantworten.

00:07:05: muss man fairerweise sagen.

00:07:06: Sie ist nicht so einfach zu beantworten.

00:07:07: Es gibt verschiedene

00:07:08: Ansätze.

00:07:09: Genau.

00:07:09: Es gibt verschiedene Ansätze.

00:07:11: Das Problem, was man zu allererstens hat, das müssen unsere Hörerinnen und Hörer erst mal wissen, ist, dass normalerweise Chromatografiedaten-Files, geschlossene Files sind.

00:07:19: Also die kann ich auch in der Regel nur mit der Software auslesen, mit der ich sie erstellt habe.

00:07:24: Das ist noch eigentlich nachteilig für den Nutzer, den Wissenschaftler.

00:07:28: Man ist ja dann auf Ewigkeiten ein solcher ein System gebunden.

00:07:32: Man ist ja richtig... eingekästelt.

00:07:34: Also das ist der erste Punkt, dass ich sage, ich habe schon ein großes CDS aus der Vergangenheit, was ich dann mal updaten möchte, wo ich wechseln will.

00:07:44: Da hast du recht.

00:07:45: Schon da mache ich mich superabhängig von einem Hersteller mit der Zeit und jeder Tag, an den ich das System laufen habe.

00:07:52: desto schlimmer wird meine Abhängigkeit.

00:07:54: Jedes Terrarbeit an Daten, was damit reinkommt, ist so schwieriger, wird es quasi da unabhängig zu werden.

00:08:00: Und Nummer zwei ist ja noch ein anderer Punkt, der immer noch viel der Pharma-Labor betrifft, vor allem den kleinen Startups.

00:08:07: Die haben ja noch gar nicht die große GLP-konforme Infrastruktur, sondern die haben ganz viele Einzelsysteme.

00:08:13: Das ist ja unsere Spezialität.

00:08:15: Aktuell sind ja Einzelsysteme ganz besonders.

00:08:18: Stimmt, da hatten wir doch auch gerade kürzlich einen Fall.

00:08:20: Genau, da hatten wir kürzlich einen super spannenden Fall.

00:08:23: Den könnten wir ja gerne nochmal erläutern.

00:08:25: Ein mittelständisches Pharmaunternehmen, was zu uns kam und sagte, hey, wir haben hier ein riesig schlimmes Feinling gehabt.

00:08:32: die FDA oder eine Behörde war im Haus.

00:08:34: Ich weiß jetzt gar nicht, welches war.

00:08:35: Es war jedenfalls eine Behörde im Haus, hat ein Audit gemacht und es gibt ganz viele Einzelsysteme.

00:08:39: Also wir sprechen hier von Systemen wie kleine Spektrometer, pH-Meter, Titratoren, die erzeugen Datenfeils und diese wurden statt auf PCs, auf USB Sticks gespeichert.

00:08:51: Was ist passiert?

00:08:53: Das Audit wurde nicht bestanden.

00:08:54: Also es war ein kritisches Feindling und jetzt... kümmern wir uns darum, das vielleicht zu lösen, ja, das ist unser Ziel.

00:09:00: Wie würde

00:09:01: da in deiner Sicht die Lösung aussehen?

00:09:04: Aus meiner Sicht muss man eben erstmal zentralen Datenspeicherort festlegen.

00:09:08: Also USB-Sticks, für alle, die jetzt mithören, das ist keine gute Idee im Labor.

00:09:13: Schon gar nicht im Pharma-Labor, wenn du USB-Sticks zu arbeiten.

00:09:16: Das ist einfach kritisch.

00:09:17: Und wenn da irgendwann mal ein Auditor drauf stößt, dann wird das zu Problem führen.

00:09:21: Spätestens dann, wenn ich irgendwie mir eine GLP-Zertifizierung holen möchte.

00:09:26: Ich sage, ich möchte das.

00:09:28: Aber die zentrale Strategie, die man da eigentlich anwenden kann, die hatten wir auch ganz interessant besprochen, war, dass man sagt, okay, die meisten dieser kleinen Systeme haben zumindest einen Langschnittstellen.

00:09:39: Und man kann dann über die Langschnittstelle in der Regel Daten pushen, in irgendein Ordner.

00:09:44: Und diesen Ordner, das ist ein speziell zugeordneter Ordner zu diesem einem System, den greifen wir dann eben ab mit.

00:09:51: Philipp, womit machen wir das?

00:09:53: Das machen wir mit dem Watcher.

00:09:57: für Datenarchivierung, genau.

00:09:59: Und die kann die Daten dann an einem zentralen Ort abrufen oder könnte sie mit entsprechenden Agenten auch an den Einzelgeräten sozial verbunden sind, abholen.

00:10:10: Aber das wollen wir ja gar nicht so in den Fokus stellen heute, aber ich fand, das war eine interessante Geschichte vor einigen Wochen.

00:10:16: Ich hatte noch mal eine Frage.

00:10:17: Du hattest vorhin von den Legacy-Systemen, von den CDS, also Chromatographie-Datenbank-Systemen gesprochen.

00:10:24: Was werden aus deiner Sicht jetzt eine Lösung, um daraus zu kommen?

00:10:27: Vor allen Dingen, wie kann man denn sicherstellen, dass man in zwanzig Jahren noch die Daten lesen kann, wenn es diese Software gar nicht mehr gibt, weil sie outdated ist?

00:10:36: Ja, das ist ein Punkt, der gerade, glaube ich, ganz viele IT-Manager beschäftigt, vor allem diese Strategie zu entwerfen.

00:10:44: Ich hatte ein ganz spannendes Gespräch auch auf der BalticX vor zwei, drei, vier Wochen dazu.

00:10:51: Da sind wir eigentlich zu dem Entschluss gekommen, dass es für die geschlossenen Pfeils erst mal gar keine Lösung gibt.

00:10:56: Es bleibt irgendein geschlossenes Pfeilformat, was ich halt eben mit der Software mir anschauen kann.

00:11:02: Da gibt es zwei Wege.

00:11:04: Der erste wäre, ich behalte mir immer irgendwie ein Altsystem im Schwank, dass ich hierher habe, die Originalsoftware auf irgendeinem uralten Rechner in der Hoffnung und bete, dass dieser bloß niemals versagt, dass ich immer noch mal darauf zugreifen kann, wenn ich das Originalpfeil mir anschauen will.

00:11:19: und speichere die originalfalls dann entsprechend in einem Archiv.

00:11:23: Ob ich auf einem Server vernünftig archiviert mit allen Sicherheitssachen, die man da eben braucht.

00:11:30: Das ist ja der erste Punkt.

00:11:32: Da habe ich aber immer das Problem, dass ich mich sehr abhängig mache, denn von dieser einen alten Softwareversion, und ich weiß ja nie, reicht das schon, dass mein XP-Rechner dann abbrennt oder so, oder das Boot raucht ab und dann habe ich keinen Zugriff mehr.

00:11:44: Genau.

00:11:45: Das war quasi unser Schritt eins, was man tun kann.

00:11:50: Verbindend macht es eigentlich Sinn, zu sagen, ich mache mir so eine duale Strategie, zu sagen, ich extrahiere diese Daten einmal als das geschlossene Pfeil und sage, das mache ich als mein Archiv-Pfeil.

00:12:01: Dazu extrahiere ich mir noch eine unveränderbare, aber allgemeinsichtbare PDF-Format, das Chromatogramm zum Beispiel, den Report.

00:12:09: Und dazu nochmal, damit ich... noch mal ein Chromatogramm hier vielleicht anschauen lassen kann als als als offenes Format.

00:12:15: das können eigentlich alle Chromatographie Systeme zum Beispiel als ASCII oder TXT-File das auch noch mal mit rauszunehmen.

00:12:21: Dann hätte ich neben meinem geschlossenen Pfeil einmal den offenen ASCII oder TXT oder was auch immer für ein Pfeilformat was ich mir in andere Chromatographiedatensysteme die Open Source Unterstützen reinladen kann gegebenenfalls.

00:12:36: Oder und noch zusätzlich habe ich dann eben die PDF, die mir unveränderlich sagt, was der Stand der Dinge damals war.

00:12:41: Das heißt, ich habe immer einen Vergleichswert, eine Referenz.

00:12:43: Und da kann dann immer der Mensch reinschauen und ist zumindest visuell.

00:12:47: betrachten und bewerten und auch die Werte rauslesen.

00:12:50: Richtig, da kann die Werte rauslesen, aber noch viel wichtiger ist.

00:12:52: Ich habe immer das Originalformat noch da, wo ich sage, okay, ich kann ja sehen, dass hier nichts verändert wurde, weil die Zahlen stimmen immer noch genauso überein in dieser offenen Datei, die ich theoretisch verändern könnte.

00:13:03: Schön ist das nicht, aber es ist zumindest irgendwie eine Lösung erstmal.

00:13:06: Das heißt, ich habe immer ein Bande von drei Daten, Files.

00:13:10: Und die würde man alle gemeinsam archivieren und mit Auditrail und allem Lifecycle.

00:13:15: Richtig.

00:13:15: Und dergleichen, wie es typischerweise in der elektronischen Archivierung gemacht wird.

00:13:23: Und es ist ja in einem guten Archiv möglich, durchaus diese Files eng beieinander im gleichen Livesage zu managen und über die Jahre zu speichern und zu verwalten.

00:13:34: So, das war meine Strategie an der Stelle.

00:13:36: Das war erst mal das, was wir erarbeitet haben.

00:13:37: Eine richtig tolle, wenn ich sage, ich möchte den Archiv, was alle Daten nimmt, nämlich nicht nur, es gibt ja durchaus auch Spezialarchive, sage ich jetzt mal, da ist aber immer der Nachteil, dass ich denn eben nur meine Chromatografiedaten da habe.

00:13:49: Das heißt, ich habe trotzdem irgendwie ein Datensilo.

00:13:52: Und das will ich ja eben vermeiden.

00:13:53: Ich möchte ja meine Daten zusammenführen in einem System.

00:13:57: Genau.

00:13:57: Und diese eierlegende Wollmilchsau, nämlich eine Software, die alle Daten, die sie vorher gar nicht kannte, dann in Zukunft lesen kann, die gibt es einfach nicht.

00:14:08: Und da hatten wir auch vor einiger Zeit eine Ausschreibung von einer großen Firma, die sich genau so etwas gewünscht hat.

00:14:15: Ich habe von Kollegen gehört, das wird schon seit, seit zehn, fünfzehn Jahren wird sowas ständig gesucht und gewünscht, aber sowas ist einfach technisch im Moment nicht machbar.

00:14:25: Und da scheint deine Strategie, die du besprochen und vorgeschlagen hast, eben ein gangbarer, pragmatischer Weg zu sein.

00:14:32: Ja, es ist, ich will nicht deklarieren, dass es der beste Weg ist.

00:14:37: Oder ich will nicht deklarieren, dass es der Einzige ist, vielleicht gibt es noch bessere, aber de facto so lange wir mit im Laborbereich hat man es einfach mit geschlossenen System zu tun.

00:14:45: Das ist die große Qual, die alle Labore haben.

00:14:48: Wenn du eine gute Software haben willst, die was leistet, ankompatographisch gesehen, dann hast du nicht besonders viel Auswahl an den Herstellern.

00:14:55: Da gibt es relativ wenige, gerade im Pharmabereich.

00:14:57: dann willst du ja vielleicht noch eine Software, die alles ansteuern kann, denn hast du noch weniger Auswahl, dann fällt die schon fast nur noch auf zwei oder drei, vielleicht vier.

00:15:06: Obwohl, ja, mittlerweile gibt es auch schon ein paar mehr, aber sagen mal fünf ist das Ende, was du als Auswahl hast.

00:15:11: Das ist schon ein Oligopul, würde ich mal bezeichnen, noch fünf Schlücken.

00:15:16: Und die sprechen alle wenig miteinander, sehr hohe Konkurrenz, und da ist eben das große Problem, dass niemand dir... Zugriff gibt auf irgendwelche Quellcodes, wo du sagst, damit könnte ich denn was entwickeln oder kann den Daten eben auswerten.

00:15:27: Das ist ganz, ganz schwierig.

00:15:28: Also muss man irgendwie mit dem, was man hat, mit den Zitronen, die einem das Leben gegeben hat, da muss man eben versuchen, Limonade draus zu machen.

00:15:36: Das ist eben Workflow II, dass ich sage, ich nehme diese drei Typen und pack das irgendwie beieinander und versuche mir da eine Herleitung zu holen.

00:15:45: Also letztlich... sagst du, einmal diese verschiedenen Datentypen, die menschlich lesbaren, die Computer lesbaren, zusammen abzuspeichern.

00:15:53: Und dann ist die Strategie, sich unabhängiger zu machen, die Daten halt nicht langzeit zu archivieren in einem CDS oder von einem anderen, sagen wir mal, gekapselten Anbieter, angebotene Software abzuarchivieren, langzeit zu speichern, sondern, wenn man dann damit gearbeitet hat, wenn sie dann mal fertig analysiert sind, sie ihnen ein unabhängiges Archiv zu schieben, sodass man dann in Zukunft auch in fünfzehn Jahren noch leicht drauf zugreifen kann, egal, was man im Moment für ein Labor-Datenbank-System verwendet.

00:16:27: Ja, und das ist ja ein super wichtiger Punkt, den du gerade angesprochen hast.

00:16:31: Zu sagen, also abgesehen davon, dass ich mir lange Zeit ermöglichen möchte, Daten zu lesen, möchte ich auch meinen tollen Server, den ich da habe.

00:16:40: Das sind ja meistens Hochleistungs-Server, die bringen Leistungen, die haben diesen teuer, je größer die werden, muss ich viel Geld aufwenden.

00:16:47: Ich möchte mir ja den auch nicht mit alten Daten vollmüllen.

00:16:51: Warum sollen da Daten ewig liegen, zehn, zwanzig Jahre, die ich eigentlich gar nicht mehr brauche?

00:16:55: Das heißt, was ich am Ende mache ist, ich nehme Daten aus dem Server raus, verschlange diesen, kann diesen Kosten günstiger betreiben, also den.

00:17:04: Den CDS Server.

00:17:06: Ja,

00:17:06: ist klar.

00:17:07: Je schneller, je voller die Datenbank wird, desto langsamer werden die dann oder ich kaufe wieder Ressourcen zu, mehr RAM und was weiß ich nicht.

00:17:14: Das kostet mir alles viel Geld und das brauche ich ja für Archiv-Taten überhaupt nicht.

00:17:17: Das Thema hatten wir, ist ja ein ganz wichtiges bei uns, dass wir sagen, hey, du hast die Möglichkeit, die ersten zehn Jahre deine Daten auf irgendeinem Speicher oder die ersten fünf zu speichern, wo du öfter mal ran musst.

00:17:29: Denn nach diesem ersten Lifecycle gehst du heute auf einen günstigeren Speicher.

00:17:33: wo du, wo du halt, der halt langsamer ist, aber wirklich viel kostengünstiger ist.

00:17:36: Das Thema Return and Invest spielt ja eine ganz wichtige Rolle.

00:17:39: Und was, was kostet mich der Server oder das, der Archivierungsprozess über den, den ganzen Lifecycle?

00:17:46: Und den sollte man ja durchaus optimieren.

00:17:47: Denn da, ja, wer den Cent nicht errt, ist den Euro nicht wert.

00:17:51: Das sagte meine Omi schon.

00:17:56: Schöner Sprung.

00:17:58: Wie ist das denn nochmal Frage?

00:17:59: Weg jetzt mal.

00:18:00: Ganz interessant für mich wäre, du kommst jetzt ja... Also du kommst ja aus den Knowledge Management eigentlich.

00:18:06: Richtig klassische Knowledge Management, da wurde auch Daten erzeugt.

00:18:10: Wie war das denn bei euch?

00:18:11: oder wie ist das denn in diesem Bereich?

00:18:12: Ich komme jetzt speziell aus der Komatographie.

00:18:14: Knowledge Management ist ja wahrscheinlich zumindest der Bereich wo du herkommst, sehr wissenschaftlastig, also klassische Forschung und Entwicklung.

00:18:22: Ich sehe den Bereich Archiv immer eher aus dem Bereich Qualitätskontrolle.

00:18:25: Hand in Hand geht ja beides.

00:18:28: Deine Expertise liegt noch in Schritt vor der Qualitätskontrolle, nämlich ganz am Anfang.

00:18:32: Wie ist das denn da bei solchen Software-Systemen?

00:18:35: Schöne Frage.

00:18:38: Nein, also Neut, da ist ja immer die Frage, die allererste Frage, die aufkommt.

00:18:42: Was ist denn Wissensmanagement?

00:18:44: Was verstehst du denn da drüben da?

00:18:46: Das ist ja so ein Schlagwort, das jeder gerne verwendet.

00:18:48: Und wie haben wir das jetzt, sagen wir mal, im Pharma-Forschungsbereich?

00:18:53: definiert und besetzt.

00:18:54: Wissensmanagement ist letztlich das sinnvolle Zusammenbringen der Daten, um darauf mehr zu generieren, mehr Wissen.

00:19:03: Also Experiment Typ A und B und C plus Literatur plus In-Haus-Wissen, das geordnet zusammenzubringen, am besten mithilfe eines Wissensgrafen, eines Knowledge-Grafen, die ja auch jetzt wieder in Basel auf der Biotech X in aller Munde waren, das vernünftig zusammenzubringen.

00:19:21: Dieses sehr verteilte Wissen zu einem Ort zusammen zu bringen, letztlich das abzubilden, was der Wissenschaftler im Kopf macht, nämlich Einzelpunkte sich zu verknüpfen.

00:19:33: Das Software unterstützt, das haben wir als Wissensmanagement bezeichnet.

00:19:39: Und da ist natürlich ein Archiv höchstens ein Endpunkt.

00:19:44: oder es kann, wenn ein Archiv gut suchbar ist, wenn schöne Metadaten drin sind.

00:19:49: kann es natürlich auch eine Informationsquelle sein, die man dann in einem Wissensmanagement-System verwendet.

00:19:57: Weil du hast ja dann schonen Massenhaftdaten, auch mit denen du umgehst.

00:20:02: Genau.

00:20:02: Das ist auch immer eine Abwägung, ob man jetzt wirklich die Massenhaftdaten, wie du sagst, also die High-throughput-Daten, die weniger hochwertigen Daten verwendet oder ob man schon ein bisschen vorgefilterte, kurierte, durchschaute Daten verwendet.

00:20:19: die dann in so ein Wissenswennenschwindssystem einfließen.

00:20:22: Da hat sich jetzt natürlich auch durch die KI Anwendung und die Möglichkeiten viel getan, dass man da mit KI Unterstützung viele Daten, die man früher vielleicht ignoriert hätte, mit hinzunehmen kann und dann mit relativ hoher Wahrscheinlichkeit eine bessere Qualität rausbekommt.

00:20:44: Es gibt ja diese tolle Grafik.

00:20:46: die da bei uns auch intern herrscht, wo man mal den Live-Seike eines Medikaments so ein bisschen ablesen kann, also von der, von deiner Expertise vor allem, den liegt in der Forschung und Entwicklung, der Stabilitätstest und so weiter Qualitätskontrolle.

00:20:59: Kurz und

00:20:59: kurz an den Einwand, Julian, vielleicht sollten wir diese Grafik, wenn du schon drauf abhebst, nachher auch nochmal den Show-Notes verlinken.

00:21:06: Das ist ein sehr guter Punkt, ja, das sollten wir wirklich tun, machen wir.

00:21:09: Aber worauf ich hinaus will, ist ja quasi das... Ich kann ja, wenn ich meine Silos vermeide, wenn ich sage, ich packe das raus und packe das alles in ein großes System, theoretisch.

00:21:21: Und später dann noch KI drauf packe.

00:21:22: Das ist ja die große Vision der ganzen Geschichte mit Metadaten.

00:21:25: Dass ich nicht nur den Knowledge Graph erzeuge in diesem Moment, wo ich eben meine Forschung habe, sondern sage, ich gucke auch mal darüber hinaus, was passiert in meiner stetigen Qualitätskontrolle, wie sich bestimmte Werte und so weiter und so fort verändern.

00:21:38: Kann ich da nochmal Informationen rausziehen?

00:21:40: Stabilitätskontrolle ist ja das eine.

00:21:42: Was passiert denn?

00:21:43: verändern sich vielleicht auch Daten, die nicht nur an der Stabilität, also Langzeit, sondern eben auch kurzfristig bei der Herstellung.

00:21:49: Gibt es da noch irgendwas, wo direkt schon in der Bullkontrolle zum Beispiel Abweichungen festgestellt werden, die ich vielleicht in dem Knowledge Graph irgendwie einwinden kann, so stelle ich mir das als Laie vor.

00:21:59: Ich muss aber zugeben, ich habe da keine Erfahrung mit Knowledge Graphs.

00:22:01: Ich habe, wie du sagtest, das auf der Biotek Xcans extrem gesehen, dass das ein riesen, riesen Thema ist in der Detractive Discovery.

00:22:07: Genau, da gingen ja einige Diskussionen in diese Richtung.

00:22:11: Aus der Praxis kenne ich es eigentlich so, dass dies immer noch sehr separiert ist nach Funktionen und dass die Leute die Sachen in ihren Bereichen machen, auf ihre Bereiche fokussiert, aber in Vorträgen, auf der Bayer-Check-Exstar, da ging schon Überlegung auch in diese Richtung.

00:22:28: Diese Ideen gibt es ja schon länger auch mit der Real-World-Medicin.

00:22:33: Jetzt habe ich gerade den richtigen Begriff nicht, wo man also auch Translationale Ansätze verfolgt, wo man Daten aus dem Krankenhaus zurück in die Forschung fließen lässt oder auch dann wirklich aus der Real World, also aus der Anwendung beim Patienten, wenn die Medikamente bekommen, dass diese Information zurückfließt.

00:22:53: Das ist ja eigentlich auch schon so ein übergreifender Ansatz.

00:22:56: Das ist eine superinteressante Geschichte, wo man ja mittel- oder langfristig mal zumindest dran denken könnte, wenn es jetzt heute immer... digitalere, immer vernetztere Daten auch gibt, zu sagen, vielleicht macht es auch Sinn, nochmal ein bisschen mehr Qualitätskontrolle und Forschung und Entwicklung zu verknüpfen.

00:23:18: Ich glaube, das ist heute extrem getrennt voneinander.

00:23:20: Irgendwann geht so ein Teil denn in die Generika-Produktion.

00:23:23: Ich weiß nicht, niemand scharzt sich mehr um irgendwelche Evo-Profe-Hinterpletten wahrscheinlich, aber vielleicht gibt es ja... andere Medikamente, wo das viel interessanter wäre, wie oft wird jetzt, also alleine das Thema aus Sempic, mal so als Beispiel immer kurz reinzubringen, wie oft man jetzt wiederhört, es gibt doch ganz krasse Nebenwirkungen, Leute werden plötzlich blind, vielleicht weiß nicht, dass da irgendwelche Abbaustoffe drin sind, wie auch immer, keine Ahnung.

00:23:45: Ich denke mir nur so, vielleicht kann man viel mehr noch Erforschung und Entwicklung und Qualitätskontrolle zusammenbringen, könnte ich mir zumindest denken, wenn man diese Datensilos schafft zu eliminieren und Daten zusammenzufügen.

00:23:56: Und da wären wir wieder.

00:23:57: meinem Punkt läge ich dieses Thema, wo ich meine Datensilos eben erzeuge, und zwar massenhaft und viel.

00:24:04: Und dann gibt es noch den zweiten Punkt, das ist ja ganz wichtig, das wäre eine schöne Überleitung eigentlich auch vielleicht mal in den nächsten Folgen, wo wir uns damit beschäftigen wollen, dass das Thema Ransom wäre, also Attacken, Cyberattacken, ganz wichtig.

00:24:15: Ganz anderes Thema.

00:24:17: Was ist hier der Zusammenhang?

00:24:19: Der Zusammenhang ist der, genau, danke, dass du fragst, der Zusammenhang ist, dass ich gerade bei solchen Systemen die... darauf eigentlich nicht ausgelegt sind, Daten sicher zu verschlüsseln, wenn ich die da drin liegen habe, in meinem Legacy-System, in meinem großen CS Server und ich dann so eine Attacke habe, dann verschlüsse ich mir einfach mal alle meine Daten und ich kenne Kunden, da ist es passiert.

00:24:38: Also da werde ich bei den nächsten Folgen, ich weiß nicht, Folge drei, vier, vier, wollten wir glaube ich ja mal über das Thema nochmal dediziert sprechen mit einem Kollegen bei uns aus dieser Fachabteilung.

00:24:48: Super spannend.

00:24:49: Und ich habe in meiner Kehre tatsächlich zwei oder drei Unternehmen erlebt, wo das passiert ist, dass die keinen Zugriff mehr hatten zu ihren Altdaten und wo die kompletten Chromatographiedatensysteme verschlüsselt wurden, weil die Server, wo es drauf liegt, verschlüsselt wurden.

00:25:01: Das heißt, du hattest gar keinen Zugriff mehr.

00:25:03: Und du meinst dein Archiv, ein vernünftiges Archiv kann hierbei helfen?

00:25:09: Ja, weil es gibt ja mittlerweile speziell im Bereich Archivierung auch ransomware-sichere Speicher.

00:25:14: Das heißt, ich kann die diese Rohdaten dort in diesem Rendsom werden, sicheren Speicher speichern.

00:25:18: Wie das funktioniert werden wir noch lernen.

00:25:20: Kleiner Ausblick dahin.

00:25:22: Aber das heißt ja, ich habe die raus aus meinem unsicheren Server eine sichere Speicherart.

00:25:29: Und da kann ich mir schon vorstellen, dass das auch nochmal IT-Security-mäßig vielleicht zumindest im Punkt ist, den man bedenken könnte, ob das nicht auch deswegen Sinn macht zu sagen, hey, ich gehe in Richtung Archivierung.

00:25:41: Ja, gut, da sollten wir wirklich noch mal in einer separaten Folge mit den entsprechenden Kollegen uns das anschauen.

00:25:47: Genau.

00:25:48: Ja, vielleicht sollten wir heute einfach noch mal zusammenfassen, was eigentlich das Credo dieser Folge war.

00:25:55: Philipp, was hast du gelernt?

00:25:56: Ich habe ja fast nur geredet, fast doch mal zusammen.

00:25:59: Das ist ein guter Punkt.

00:26:00: Was haben wir besprochen?

00:26:01: Lass uns das mal kurz beleuchten, Julian.

00:26:03: Also wir haben gesprochen, was tun mit alten Chromatographiesystemen, CDS-Systemen?

00:26:10: Es werden viele Systeme in Laboren verwendet, manchmal sogar verschiedene Parallel, die sollen teilweise nach einer Weile abgelöst werden, zu einem anderen Anbieter, zu einer anderen Technologie hin.

00:26:21: Und das ist oft schwierig für Leute, weil sie dann ihre Daten, die lange archiviert werden müssen, bis zu zwanzig Jahren auch in dem System haben.

00:26:31: Und aus diesem Grund dann oft nicht wegkommen.

00:26:33: Unser Vorschlag dazu aus der Praxis ist, lasst uns ein.

00:26:38: Anbieter unabhängiges Archivsystem verwenden, wie wir es in der Pharma- und Biotechnologie einsetzen.

00:26:47: Das sammelt dann aus direkt von den Laborgeräten, von den CDS-Systemen, aus anderen Systemen, die zu archivierenden Daten ein.

00:26:56: Und dann ist es in Zukunft erstmal egal, welches Laborsystem verwendet wird.

00:27:01: Man kann immer unter GXP-Bedingungen auf diese Archive wieder zugreifen.

00:27:08: Das war der eine Punkt.

00:27:09: Der andere Punkt ist das Thema der Lesbarkeit der Daten.

00:27:14: Und da ist ein Vorschlag und auch unsere Erfahrung Best Practice, die Daten als Binärdaten, also verkapselte Daten abzuspeichern, so wo es vorausgesetzt ist und zusätzlich dann die Daten nochmal in einem lesbaren Format, zum Beispiel PDF, Textformat zu speichern.

00:27:31: so dass man sich das dann immer wieder anschauen kann, selbst wenn man nicht mehr die Original Software zur Verfügung hat.

00:27:38: Der dritte Punkt ist eigentlich das Thema der Ransomware, die bei einigen Pharmaunternehmen, wie wir es festgestellt haben, im praktischen Umgang wirklich eine Rolle spielt, dass Firmen erpresst werden, dass sie nicht mehr auf ihre Daten zugreifen können.

00:27:58: Das kommt gar nicht so viel an die Öffentlichkeit.

00:28:01: Es kommt aber vor und hier kann ein Archiv, in dem die Daten von, sagen wir mal, Firmenseite schon verschlüsselt sind, sicherstellen, dass ein Angreifer die Daten nicht noch mal zusätzlich verschlüsseln kann.

00:28:19: Und das ist ein relativ neuer Aspekt in unserem Horizont, für den wir auch eine Lösung im Kopf haben und das werden wir aus dem Grund auch noch mal eine extra Folge beleucht.

00:28:29: Und

00:28:30: das ist ein ganz wichtiger Aspekt, ganz wichtig.

00:28:33: Und ich würde sagen sogar Punkt fünf, ich glaube da ist jetzt vier genannt, ich würde sagen Punkt fünf wäre noch USB Sticks sind bitte in Pharma Unternehmen, in Pharma Laboren nicht einzusetzen.

00:28:44: An alle da draußen, die jetzt anfangen, die Richtung zu denken, ihr Labor GXP ready zu machen, bitte tut das nicht.

00:28:51: Das gibt nur Ärger später.

00:28:53: Und das ist ganz praktisch, wenn man gleich von Anfang an eine gute Archivstrategie sich hinterlegt.

00:28:59: Und da sieht man eigentlich auch ganz schön an diesem Beispiel zu sagen, hey, ein Archiv ist eben nicht unbedingt das nur der Endlagerplatz, weil ich ihn brauche, sondern er kann mir einfach helfen, er hilft mir.

00:29:10: Er hilft mir, Regulatorien einzuhalten, die ganz wichtig sind.

00:29:15: Und ein kritisches Feindling, glaube ich, will einfach niemand.

00:29:17: Das ist großartig.

00:29:19: Und das kann man damit ganz simpel vereinfachen und zu sagen, hey, ich speichere das einfach gleich da ab.

00:29:24: Das heißt ja nicht, dass ich da nicht noch mal Zugriff drauf habe.

00:29:27: Aber ich habe eben die Möglichkeit, mir Ärger vom Hals zu halten und dann in solche Stresssituationen zu kommen.

00:29:32: und spätestens, wenn das passiert, solche kritischen Findings oder Findings im Bereich Datenspeicherung, Datenumgang, Datenhändlingen, dann habe ich nicht mehr viel Auswahl.

00:29:42: Dann muss ich plötzlich handeln.

00:29:44: Dann wird es immer... immer teurer.

00:29:46: Immer.

00:29:47: Weil da muss es schnell sein, dann muss es die Qualität hochwertig sein und schnell.

00:29:51: Und beides zusammen ist immer die worst case Combi, weil das kostet immer sehr viel Geld.

00:29:55: Und das kann man schon vorher sparen, indem man ein gutes Fundament legt und seine Laborstruktur da gut aufbaut.

00:30:01: Vielleicht nochmal auch in den Show notes.

00:30:02: Das ist ein ganz anderer Aspekt, den wir noch gar nicht beleuchtet haben.

00:30:05: Dieses frühe Ausrichten das Labor selbst in einem Start-up auf GXP Readiness.

00:30:13: Ich weiß gar nicht, ob wir dafür nochmal eine extra Folge planen.

00:30:17: Lass mich nur eine Sache sagen.

00:30:18: Das ist ein wichtiges Stichwort.

00:30:19: Vielleicht sagst du noch ein paar Worte dazu.

00:30:21: Aber wir haben ja dazu auch ein Fragebogen erstellt, in dem man sich selbst assessen kann, wie weit man im GXP Bereich ist als kleine Firma, als Start-up oder auch schon etwas etabliertere.

00:30:36: Vielleicht sollten wir die auch noch mal die Shownotes packen, da kann sich jeder das selbst mal durchklicken und selbst beantworten.

00:30:41: Genau, das ist also ein White Paper.

00:30:42: Da geht es nochmal, getting GXP ready in the real world, nicht zu verwechseln mit real world data.

00:30:48: Aber es geht eigentlich darum, wie kann man als kleineres Unternehmen Startup, was jetzt auf die Reise geht in Richtung GLP GXP, das ist ja bei vielen ein Prozess.

00:30:59: zu sagen, ich gehe da irgendwann immer mehr und mehr hin, weil ich mehr und mehr mit Farm-Unternehmen zu tun habe oder selbst dann irgendwann einen Medikament vielleicht mal frei geben will, verkaufen möchte.

00:31:10: Da ist es eigentlich gleich der richtige Weg zu sagen, ich baue meine Archivstrategie ordentlich auf, gleich von Anfang an, weil das sind wirklich hochgradig problematische Geschichten des Thema USB.

00:31:23: Und in diesem White Paper Vielleicht noch mal um das kurz zusammenzufassen ist einmal so ein bisschen allgemeine Begrifflichkeit mit drin.

00:31:30: Ich hatte das zusammengeschrieben mit unserem Quantitätsmanager Vincent Dubois, der aus dem Qualitätsmanagement-Farm kommt.

00:31:37: Der hat bei ganz großen Unternehmen wie GSK gearbeitet und hat da die Qualität mitgeleitet.

00:31:41: Also der hat da super Erfahrungen in dem Bereich und der Fragebogen bezieht sich vor allen Dingen auf die IT-Strategie.

00:31:47: Also wie wird validiert?

00:31:50: Wie archiviere ich?

00:31:51: mache ich das richtig?

00:31:52: Und da gibt es am Ende eine schöne Zusammenfassung, wo ich den mal sehe, wie viel Prozent der maximale Punktzahl habe ich erreicht.

00:31:58: Und ich glaube, unter achtzig Prozent sollte man sich wirklich vielleicht mal beraten lassen, wenn man, wenn man in die Richtung GPG, MPG, XP gehen möchte, weil der Archivstrategie einfach eine ganz zentrale, wichtige Stelle ist.

00:32:11: Wir werden vielleicht bei der letzten Folge unserer Staffel hier, die wir gerade machen, nochmal mit Stefan Krügel sprechen.

00:32:16: Stefan Krügel ist Automationsspezialist.

00:32:20: Und der beschäftigt sich vor allen Dingen auch mit dem Einsatz von Archivierungen, also im Bereich Automation und Kostenersparnis, also Produktivität.

00:32:28: Das heißt, das Archiv ist eben nicht nur Pflicht, sondern ist auch ein Teil meiner Strategie zu sagen, ich möchte meine Prozesse verschlanken, Return und Invest erhöhen, effizienter werden und so weiter und so fort.

00:32:40: Das ist auch ganz wichtig, nochmal zu erwähnen vielleicht hier.

00:32:43: Also wir machen schon mal ein bisschen Werbung für die nächsten Folgen.

00:32:45: Da werden nochmal interessante Themen beleuchtet, das Thema Produktivität auch.

00:32:49: Ich denke in dieser Folge haben wir nochmal schön erklärt, dass das Archiv helfen kann, mich unabhängig zu machen, gerade im Labor gegenüber, wie du das schon vorhin sagtest, Herstellern.

00:33:01: Letztlich

00:33:02: kommt man damit aus seiner verstaubten Ecke raus von alten Anbietern.

00:33:06: Dabei klingt ja Archiv erst mal staubig, aber letztlich hilft es, an dem Staub loszuwerden.

00:33:10: Das ist richtig gut davon.

00:33:11: Nicht so zu laufen wie damals in der Geschichte mit einer... Gruselwille in der letzten Folge.

00:33:16: Ja,

00:33:17: die Gruselwille.

00:33:19: Wo die alten Papiere in alten Häusern abgelegt wurden, sondern dass es viel, viel, ja, ein großer Schritt eigentlich in die Zukunft.

00:33:27: Genau.

00:33:28: Gruselwille, ich wollte noch mal für die, die es nicht wussten, ich musste früher immer in meiner Laborantenlehre in so ein Gebäude, welches irgendwo im Joggendwo stand, wo wir noch die Archivdaten hinbringen mussten.

00:33:38: Es war immer nicht so schön, dort zu sein.

00:33:40: Gerne Folge eins mal reinhören, da erkläre ich das ein bisschen ausführlich.

00:33:44: das ganze Thema.

00:33:45: Und da geht es auch wieder um das Thema Prozessoptimierung.

00:33:47: Da kann digitales Archiv durchaushelfen.

00:33:49: Und hier ist es so, vielleicht nochmal meine Botschaft auch nach außen an alle, die heute denken, sie haben das perfekte Produkt, die perfekte Software da, Chromatographie Software, whatever, oder die perfekte HPLC, Chromatographen, wie auch immer.

00:34:03: Wer weiß, ob das in fünf Jahren noch so ist oder in zehn.

00:34:05: Vielleicht gibt es da ganz andere neue Features, die man unbedingt haben sollte, um noch effizienter zu sein.

00:34:09: Und dann ist immer die Frage, kann das meine Software überhaupt, die ich heute habe, kann das der Hersteller überhaupt.

00:34:14: Deswegen, man sollte sich immer zumindestens den Raum lassen zu sagen, ich kann jederzeit wechseln, ohne mich unendlich abhängig zu machen.

00:34:22: Und das ist eigentlich die Hauptmessage auch dieser Folge, dass das Archiv dabei hilft, diese Unabhängigkeit.

00:34:29: gegenüber anderen zu schaffen und mir den freiraum zu lassen.

00:34:31: denn ich habe das ganz oft erlebt aus ich war eine lange zeit auch account manager habe also software auch selber verkauft war auf der seite der hersteller der der der vertreiber und ich habe das so oft gesehen dass auch tolle projekte eigentlich gescheitert sind.

00:34:43: Wenn man sagt, wir können gar nicht wechseln, wir können das nicht.

00:34:45: Stimmt den Wechsel.

00:34:46: Und das ist halt der Monopol an Peter X. Da bleibe ich.

00:34:50: Oder das waren immer häufig Argumente, wo man sagt, Mensch, da verzichtet ihr auf so viele tolle Features, die die Hardware eigentlich liefert, die aber meistens ist ja so.

00:34:58: Du arbeitest mit einem Hardwarehersteller eins an der Software von einem Hardwarehersteller zwei.

00:35:03: Da geht vieles gar nicht.

00:35:06: Da fehlen viele tolle Features, die eigentlich hilfreich sind im Alltag.

00:35:10: Und wenn ich mich da unabhängig mache und sage, ich kann da auch mal wechseln irgendwann, dann ist das, glaube ich, eine ganz tolle Sache, die man fossieren sollte.

00:35:19: Ja, das war, denke ich, sehr gut gesagt und ein schönes Schlusswort für heute.

00:35:24: Ja.

00:35:25: Wenn du dem nicht noch was hinzuzufügen hast, mir hat es großen Spaß gemacht, Julia, und ich freue mich auf das nächste Mal.

00:35:31: Mir hat es auch großen Spaß gemacht, lieber Philipp, und genau dann... würde ich jetzt sagen, vielen lieben Dank fürs Zuhören, liebe Zuhörer.

00:35:38: Dann bis hoffentlich in die Folge drei.

00:35:41: Die Folge drei, wir können mal ein kleines Intro mal geben, vielleicht noch interessanterweise.

00:35:44: Da geht es um das Thema KI.

00:35:46: Wie kann KI im Archiv eingesetzt werden?

00:35:48: Was gibt es dafür?

00:35:49: Anknüpfungspunkte?

00:35:50: Was gibt es dafür Trends und Einsatzmöglichkeiten?

00:35:52: Möchtest du sonst noch was sagen, lieber Philipp?

00:35:54: Nö, ich will da gar nicht so viel vorwegnehmen.

00:35:55: Das wird spannend.

00:35:56: Wir packen noch ein paar Sachen in die Show-Notes, ein bisschen was zum Nachlesen, wie angekündigt zum Anschauen.

00:36:02: Wir freuen uns auf Feedback und Rückmeldung, so wie es bisher war, und hoffen uns bald wieder zu hören.

00:36:09: Genau, also bis bald dann.

00:36:11: Tschüss.

00:36:15: Das war DatenDoku Digital,

00:36:18: der Pharma-Archiv-Podcast.

00:36:20: Mehr Informationen und Kontaktmöglichkeiten findest du in den Shownauts.

00:36:24: Bleib digital, bleib dokumentiert und bis zur nächsten

00:36:27: Folge von DatenDoku

00:36:29: Digital.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.