#3: Die Zukunft der KI in der Pharmaindustrie

Shownotes

In dieser Episode diskutieren Julian Weber und Philipp Krubasik die Rolle von Künstlicher Intelligenz, KI, in der Pharmaindustrie, insbesondere im Hinblick auf die neuen regulatorischen Rahmenbedingungen durch Annex 11 und 22. Sie reflektieren über ihre Erfahrungen von der CPHI Messe, die Herausforderungen der Globalisierung und die Notwendigkeit, europäische Unternehmen wettbewerbsfähig zu halten. Ein zentraler Punkt ist die Diskussion über die Effizienz von KI im GxP-Umfeld sowie die Bedeutung von Archivierung und Datenmanagement. Außerdem wird das Thema Wissensmanagement und die Integration von KI in bestehende Systeme behandelt, um den Wert von Daten zu maximieren.

Die wichtigsten Takeaways:

  • KI kann in der Pharmaindustrie effizient eingesetzt werden, wenn sie richtig implementiert wird.
  • Regulatorische Rahmenbedingungen wie Annex 22 schränken den Einsatz von KI in kritischen Anwendungen ein.
  • Die Definition von „kritisch“ in Bezug auf GxP-Anwendungen bedarf weiterer Klärung.
  • Archivierung und Datenmanagement bieten spannende Chancen für die Nutzung von KI in der Pharmaindustrie.
  • Wissensmanagement kann durch KI-gestützte Ansätze erheblich verbessert werden.
  • Daten müssen aufbereitet werden, um KI-Einsatz zu gewährleisten.
  • Die Integration von KI in bestehende Systeme erfordert natürlich eine sorgfältige Planung und Validierung.

Weitere Informationen in den nächsten Folgen und auf www.biomedion.com Fragen, Feedback und Co? Ihr könnt uns gerne auch direkt schreiben an: info@biomedion.com

Hört rein! Für viele neue Erkenntnisse und Detail- und Hintergrundinformationen zum Thema.

Die Podcast-Hosts:

Julian Weber, Business Development Consultant, biomedion GmbH https://www.linkedin.com/in/julian-weber-digitallab/

Dr. Philipp Krubasik, Digital Lab Champion, biomedion GmbH https://www.linkedin.com/in/philippkrubasik/?originalSubdomain=dewww.biomedion.com

Dieser Podcast ist eine Produktion von STUDIO VENEZIA – the podcast company: https://www.studiovenezia.de/

Transkript anzeigen

00:00:00: Willkommen zu Datendoku Digital, der Pharma-Archiv-Podcast.

00:00:05: Hier geht's

00:00:06: um digitale Archivierung, Business Management und KI im Pharma-Bereich.

00:00:10: Klar erklärt und praxisnah gedacht.

00:00:16: So, dann herzlich willkommen zurück zu unserem Podcast Folge drei.

00:00:21: Dieses Mal zum Thema KI, dem Einsatz von KI in der Pharma-Welt mit Mia, Julian Weber, Business Development Consultant bei der Biomedien GmbH.

00:00:31: und meinen lieben Kollegen.

00:00:33: Philipp Kubasik ebenfalls bei Biomedion.

00:00:37: Ich freue mich, Julian, heute wieder mit dir zu sprechen.

00:00:39: Ich freue mich auch, lieber Philipp.

00:00:42: Ich möchte mich noch kurz bedanken für das viele nette Feedback von der Folge II.

00:00:47: Das Thema Legacy-System, wie man dann von unabhängig wird, hat doch einiges an Rückmeldung gegeben, spannenderweise.

00:00:54: Und da wird es auch demnächst noch ein White Paper dazu geben.

00:00:59: Das nochmal Info vorab.

00:01:01: Genau heute soll es primär um das Thema KI im Pharma-Umfeld gehen, dem Einsatz von KI, den neuen Anex-Ölf, kurzer Ausblick und natürlich ganz wichtig den Anex-II.

00:01:12: Aber bevor wir dahin springen, Philipp, du kannst dich ja wahrscheinlich daran erinnern, wir waren letzte Woche bei der CPHI, die größte Pharma-Messe der Welt, würde ich jetzt mal behaupten, Weltleitmesse in Frankfurt am Main.

00:01:26: Wie war unser Eindruck?

00:01:26: Wie war dein Eindruck, lieber Philipp?

00:01:28: Ja.

00:01:29: Du hast es schon eben angedeutet, größte, ob es wirklich die größte ist, weiß ich nicht, aber es war echt überwältigend.

00:01:35: Ich habe ja schon viel gesehen, wir sind da einen halben lang von Halle zur Halle gelaufen, haben uns die Füße platt getreten und es hat keinen Ende genommen.

00:01:43: Also es war schon sehr, sehr beeindruckend.

00:01:45: Es war beeindruckend, riesig war für mich die größte Messe und vor allen Dingen war es spannend zu sehen.

00:01:51: Du hast es ja auch kurz erwähnt.

00:01:53: aufeinandertreffen der Kulturen, als alle Herrenländer waren.

00:01:57: Das war wie im Ausland.

00:02:00: Aber was auch für mich ein krasser Eindruck war, war doch die Inbalance, obwohl es in Europa war, in Frankfurt am Main, der deutschen Formunternehmen.

00:02:07: Wie wenig es eigentlich da war, waren, man sah doch eigentlich nur, paar Global Player, die hier sitzen, eine Wartessando und wie sie nicht alle heißen.

00:02:17: Aber von kleinen und mittelständischen Pharmaunternehmen war doch ja wenig, ne?

00:02:21: War vielleicht eine Halle gegenüber zehn weiteren Hallen.

00:02:25: Gefühlt.

00:02:27: Ja, ja.

00:02:27: Also, China war da sehr, sehr stark vertreten.

00:02:30: Und Indien natürlich, wie man es immer hört, überall.

00:02:32: Aber das war wirklich eindrücklich zu sehen.

00:02:35: Und die Frage ist natürlich, woran liegt es?

00:02:38: Warum ist das so?

00:02:39: Ist das nicht Wahnsinn eigentlich, dass so wenig, obwohl es eine europäische Messe ist, doch so wenig europäische Vertreter vor Ort waren.

00:02:45: Was denkst du?

00:02:46: Ja, das ist doch das ganz allgegenwärtige Zeichen der Globalisierung, das wir hier gesehen haben.

00:02:53: Woran das im Einzelnen liegt, weiß ich nicht.

00:02:55: Aber du willst wahrscheinlich darauf hinaus, was kann man denn tun, um hier als ein europäisches und deutsches Unternehmen mithalten zu können.

00:03:05: Genau, ja, es ist eine spannende Frage.

00:03:07: Ich hatte ja in meiner Karriere jetzt relativ viel mit vom Unternehmen zu tun.

00:03:12: Und was man immer wieder hört, ist eigentlich viel... Beschwerden zum Thema Kostensteigerung, Kosten-Explosion, komplizierte GMP, GXP-Regelungen, die das Leben schwer machen, Prüfregeln, die das Leben schwerer machen.

00:03:28: Und dass man natürlich natürlich Lohnkosten, Unterhaltungskosten, Strom und so weiter, spielt natürlich alles eine wichtige Rolle.

00:03:35: Und das heißt... dann sagt ein farmunternehmen irgendwann wir produzieren lieber im ausland ist eigentlich günstiger und wir haben ja ein paar fotos gesehen wie die farmunternehmen dadurch aus.

00:03:44: manchmal aussehen mitten auf eckern mitten in der pamper irgendwo ein gebäude wo denn irgendwas produziert wird.

00:03:51: das heißt die farmunternehmen heute sind ja schon im im zwang produktiver zu werden.

00:03:56: klar aber das sehe ich dir auch nicht anders als andere unternehmen.

00:04:01: Aber das ist ja genau, und ich weiß schon, worauf du hinaus willst.

00:04:03: Das spielt ja genau in dieses Thema rein, das auch in dem Anex-II behandelt wird, das wir uns heute ein bisschen anschauen wollten.

00:04:11: Wie wird denn KI im GMP GXP-Umfeld gesehen in der Pharma-Branche?

00:04:19: Genau, wie wird es gesehen?

00:04:20: Und wie kann es mir vielleicht auch helfen, effizienter zu werden?

00:04:23: Viel

00:04:23: wichtiger, genau.

00:04:24: Also ganz viel Einsatz, um effizienter zu werden.

00:04:27: Ich habe hier nur den halben Weg gemacht.

00:04:28: Es gibt ja durchaus Kritiker, die sagen, KI macht uns nicht effizienter, dass es da Studien gibt.

00:04:33: Ich glaube, das ist eigentlich nicht so ganz.

00:04:34: Es kommt halt darauf an, wo man sie einsetzt, wie man sie einsetzt.

00:04:37: Das Thema, was wir heute besprechen, Annex.

00:04:40: Ist ja vor allen Dingen die Frage, wo kann ich es denn überhaupt noch einsetzen vernünftig?

00:04:45: Wo kann ich KI in Pharmaunternehmen einsetzen, ohne gefahrt zu laufen, regulatorische Risiken einzugehen?

00:04:53: Ja, ich finde, da wird immer vieles so ein bisschen schwarz gesehen.

00:04:57: Schwerzer, als es vielleicht ist.

00:04:59: Aber vielleicht sollte man anfangen, erst mal sich zu überlegen, was ist denn KI?

00:05:04: KI wird ja hier so definiert, dass es letztlich Programmes sind, die ihre Funktionalität erhalten durch Training an den Daten.

00:05:14: Das ist eigentlich KI und da gibt es eine ganze Reihe gegenüber dem traditionellen Programmieren, wo sich ein Mensch hin setzt, ein Programmierer und das HardCoded.

00:05:23: Das ist erstmal ein sehr, sehr weiter Bereich und da kann man sich sehr viele Programme vorstellen.

00:05:27: Also klassischerweise wäre das ja... JetGBT, wie man es kennt.

00:05:32: Da hast du jetzt wieder einen sehr extremen Fall rausgegriffen, den jeder unter KI oder AI versteht.

00:05:39: JetGBT, GenAI, Generative AI, die also letztlich auf großen Datenmengen, würde ich jetzt mal sagen, basierend selbst neuen Content, neue Daten generiert.

00:05:53: Und das ist ein Teil nach meinem Verständnis, der in dem Ernex- Twenty-two klar ausgeschlossen wird.

00:05:59: Genau, da können wir mal ganz kurz reinspringen vielleicht.

00:06:03: Nämlich mal vorab hier.

00:06:04: Denn es gibt ja ein Zitat aus dem Anex-Twenty.

00:06:07: Ich lese Ihnen ganz kurz vor, der besagt, AI and large language models in Klammern LLM and such models should not be used in critical GMP applications.

00:06:16: Heißt... Schluss mit KI, gibt kein KI mehr.

00:06:20: Mit der KI, so wie du sie als JetGPT fanciest, aber es gibt ja wie gesagt noch die andere KI mit den sogenannten deterministischen Output, wo also immer wieder Software mithilfe von Daten generiert wurde, aber dann immer wieder dasselbe Ergebnis generiert wird gegenüber dem probabilistischen Output, das ist dann das, was in Richtung JetGPT zum Beispiel geht.

00:06:44: Also ich finde, man muss es sich schon genau anschauen.

00:06:47: Man kann nicht einfach sagen, jetzt ist hier KI komplett abgewählt worden, sondern es wurde eingeschränkt.

00:06:52: Und aus meiner Sicht, ich nehme jetzt mal die konservative Haltung hier ein, ist es auch gewisserweise gerechtfertigt.

00:06:58: Und man muss sich das einfach mal genauer anschauen und auch gucken, wo es angewendet wird.

00:07:04: Aber jetzt darfst du wieder, Julian.

00:07:05: Das ist ein richtig guter Punkt, was du sagst, Philipp.

00:07:09: Ich will mich da nicht ausschließen, dass ich sage, okay, es macht auf alle Fälle Sinn, KI, wenn man sie einsetzt, kritisch zu bewerten.

00:07:14: Ich störe mich an dem Faktor, dass hier ein Draft veröffentlicht wurde, wo man sagt, dass KI, also diese dynamische KI, large language Models, verboten sind im kritischen GXP oder GMP-Applications.

00:07:29: Es wurde aber nicht definiert, was ist eine kritische GMP-Application.

00:07:33: Und da liegt das große Problem, denn man sollte ja trotzdem die Möglichkeit sich offenhalten.

00:07:38: diese large language models, language models, whatever, nutzen zu dürfen.

00:07:45: In den Bereichen wo es vielleicht nicht kritisch ist.

00:07:47: Aber es ist nicht definiert, was ist kritisch.

00:07:48: Ab wann startet das, wo endet es, wo fängt es an?

00:07:51: Und das sehe ich als hochproblematisch.

00:07:53: Ja, aber auch da wäre ich jetzt ein bisschen entspannt.

00:07:55: Das war ein Draft, ein Vorschlag, der zirkuliert wurde.

00:07:59: Da hätte ich vielleicht, ich bin immer ein Optimist, die Hoffnung, dass das nochmal vielleicht genauer beschrieben wird.

00:08:06: Ich glaube, die Zeitphase, in der man kommentieren wurde, ist jetzt vorbei, seit Anfang Oktober.

00:08:12: Wir werden es sehen.

00:08:13: Aber du hast recht, das wird da gesagt, diese generativen Modelle genai nicht in kritischen Bereichen und in den nicht kritischen Bereichen, das soll dann immer noch der menschliche Faktor reinkommen, der sogenannte human in the loop wird dann erwähnt.

00:08:31: Ehrlich gesagt, ich finde es jetzt gar nicht so schlecht, aber du sagst schon ganz richtig, man muss das halt nochmal ein bisschen dann vielleicht fine tune und kann die leute nicht so im regen stehen lassen und sagen was ist jetzt kritisch und nicht

00:08:45: genau den?

00:08:46: de facto wollen wir sagen immer was wichtig ist gerade im bereich archivierung wenn wir da jetzt hinspringen das ist ja unsere unsere domain wo wir uns wo wir uns auskennen oder zumindest wo wir unterwegs sind da sagen wir ja schon dass wir daten vorbereiten ke ready machen jetzt die frage jetzt gehst du jetzt geht man damit hausieren und dann heißt es die frage ist jetzt Können wir das auch benutzen?

00:09:10: Ist das nicht ein kritischer Prozess?

00:09:11: Da muss man natürlich klar definieren, was macht man mit der KI?

00:09:14: Ganz genau.

00:09:15: Das ist so ein Schlagwort, das für viele Leute vieles abdeckt.

00:09:21: Das haben wir auf den letzten Konferenzen ja auch immer gehört.

00:09:23: Jeder muss es verwenden und drin haben.

00:09:27: Auf unserer Seite KI Ready heißt ja, dass wir die Daten entsprechend aufbereiten, zur Verfügung halten.

00:09:33: Und das sind ja auch meistens die Metadaten der archivierten Daten, also die Zusatzinformation.

00:09:38: Und darauf kann man dann suchen machen, das ist ja ganz einfach und traditionell, aber darauf kann man dann auch Anwendungen loslassen, die unter den Fall KI, das Stichwort KI fallen, das können einmal Design, die der Anex-Elf abdeckt, dann ist es ja ganz unkritisch.

00:09:55: und es könnten aus meiner Sicht dann auch noch Design, die Gen-AI-Sachen, also die probabilistischen Ansätze, die man auch auf die Metadaten loslässt.

00:10:06: Das muss dann halt... mit nicht kritischen Fragestellungen abgedeckt werden.

00:10:11: und da sind wir ja wieder genau in dem Punkt, was ist kritisch und nicht kritisch.

00:10:15: Ich glaube, das wird sich aber noch klären.

00:10:17: Genau, weil man hätte ja die zwei Punkte.

00:10:19: Das heißt einmal, ich lasse einfach eine KI Suchanfragen ausführen.

00:10:24: D.h.

00:10:24: ich frage Sie, gibt mir von Charge XY für Produkt XY alle dazugehörigen Daten, was natürlich dazu führt, dass ich meine Datensilo ist?

00:10:34: Aufbrechen könnte rein theoretisch weil ne k.i.

00:10:36: Natürlich ein ganz andere Übersicht hat.

00:10:38: ich meine du kannst schon viel mit.

00:10:39: ich glaube du kannst schon viel ohne k.i.

00:10:40: auch machen denke ich.

00:10:41: also wenn du eine gute software hast geht schon viel.

00:10:44: Kannst du sie los natürlich teilweise auflösen auch ohne die.

00:10:47: aber ich glaube mit k.i.

00:10:48: hast du halt einen viel schnelleren viel einfacheren überblick was alles geht

00:10:52: absolut und deswegen ist ja jeder grad so so heißt darauf.

00:10:55: Wenn man sich ja immer erhofft man kann dann sehr schnell.

00:10:59: ohne sich wirklich ums Detail kümmern zu müssen, einen Wert raus generieren.

00:11:03: Und das ist aus meiner Sicht auch genau der Grund, weswegen man da ein bisschen in einem Annex Elfen vorsichtig ist, dass man da nicht so Black Boxes hat, die da nicht nachvollziehbar sind.

00:11:14: Man hätte ja da an der Stelle auch immer den Human in the Loop.

00:11:16: Genau, den hätte man auch.

00:11:18: Und jetzt holen wir ein bisschen aus.

00:11:21: Aber wir sehen ja ein Archiv auch nicht nur als ein Archiv, das die Anforderung erfüllt, damit Die Compliance sind GOP-konform, sondern wir denken ja auch, dass ein Archiv darüber hinaus genutzt werden sollte.

00:11:36: Dass man also die Daten, die man sowieso da drin hat und die Metadaten, das sind die noch und dann gerne mit Hilfe von KI weiter analysiert, daraus Werte nutzen zieht, über seine Daten weitere Erfahrungen sammelt, daraus lernt.

00:11:54: Das ist ja ein Trend, der überall zu sehen ist.

00:11:57: Stichwort Big Data, e-for-for zur Verfügung stehende Daten und dann daraus Wert generieren.

00:12:04: Und du meinst jetzt aber damit quasi, also du sprichst jetzt nicht nur vom Suchen, sondern so wie ich das verstehe sprichst du von der richtigen Verbindung der Datenschuhe aus dem Archiv raus, oder?

00:12:14: Ja, genau,

00:12:16: jetzt machen wir wieder ein bisschen unklar.

00:12:19: Und ja, man wird sehr schnell und scharf auch.

00:12:23: Genau, das erste ist zu suchen.

00:12:25: Innerhalb der Daten, da kann so eine KI, wie sie dir vorschwebt, es einfach einfacher machen, ohne genau zu wissen, wonach man sucht, alles Mögliche, was relevant sein könnte, gezeigt zu bekommen.

00:12:37: Und der andere Ansatz, auf den du hinaus willst, ist, dass man weitere Daten hinzunehmend, die vielleicht gar nicht im Archiv drin stecken und da in Richtung Wissensmanagement, Wissensgrafen vielleicht sich bewegt.

00:12:50: Dass wir natürlich einen super spannenden Ansatz sind, dann kann ich wirklich mit meinem... Wir hatten ja mal einen Vortrag gehört oder zumindest ein Vortragstitel, wo stand die Daten als Rohöl.

00:13:00: Komischer, du hast immer gesagt, was das ist.

00:13:01: Ich mag das überhaupt

00:13:03: nicht.

00:13:04: Aber es ist ja, ich meine, die Bezeichnung heißt ja am Ende oder am Ende bedeutet es ja nur, dass ich einen riesigen Wert in meinen Daten habe, den ich heute wahrscheinlich gar nicht so ausschöpfe, wie ich ihn ausschöpfen könnte.

00:13:18: Das könnte ich natürlich mit KI super machen, wenn ich ein schönes Archiv habe, wo ich erstens Metadaten dranbringe.

00:13:23: die dann schnell natürlich mir auffinden lassen.

00:13:25: Ich sage, ich habe Audit und will das vorbereiten, such mir einfach alles raus, bla bla, schön, toll, super praktisch, spart mir Zeit, macht mich effizienter.

00:13:32: Das ist ja das Thema, was es heute ein bisschen geht, Effizienzsteigerung.

00:13:36: Das zweite Thema, das ist ja noch viel krasser zu sagen.

00:13:40: guck sogar rein.

00:13:41: Das wäre ja nicht nur suchen von irgendwelchen Metadaten, sondern das wäre ja dann schon die Stufe, danach zu sagen, ich schau mit der KI drauf, was steht da drin in den Dokumenten?

00:13:49: Gibt es da Berichte, die spannend sind, Werte, die ich zusammenfasse?

00:13:52: Anomalien, die ich analysiere.

00:13:54: Wie siehst du das?

00:13:55: Ja, das ist richtig.

00:13:56: Da muss man nochmal kurz auch auf den Anex-Elf schauen.

00:13:59: Aber bevor ich dich das so entwischen lasse, will ich mich nochmal an dem Rohöl auffängen.

00:14:05: Also ich gehe bei dem Begriff absolut nicht mit.

00:14:08: Ich denke, da heutigen Zeit, dann kann man vielleicht sagen, das Datens sind die neuen Photovoltaik-Module oder mit Kraftanlagen.

00:14:16: Ich habe es einfach nicht so mit diesen alten Industrien mehr.

00:14:20: Aber ich verstehe was du meinst.

00:14:21: Was sollst du auch anders sagen mit deinem Akku-Auto?

00:14:24: Ja.

00:14:25: Da kommt wieder dieser Vorbehalt.

00:14:28: Aber es ist ja korrekt, du hast recht.

00:14:30: Am Ende, wie gesagt, das soll ja nur darstellen, es ist ein großer Wert, dem wir derzeit nicht nutzen.

00:14:34: Und das Archiv kann das aufbrechen.

00:14:38: Aber jetzt wollte ich noch ein Punkt, ja, wir sind jetzt ein bisschen ins Blaudan und abschweifen gekommen.

00:14:42: Du meintest also, Rohdaten, die im Archiv sind, zu verwenden.

00:14:48: Ist gut, Mehrwert zu generieren.

00:14:50: Und dann gibt es ja jetzt nicht nur den Anex-III, sondern auch noch den Anex-I.

00:14:57: neuen Entwurf.

00:14:58: Genau, der eben noch im Entwurf, es muss man auch noch dazu sagen, noch nicht ganz fertig.

00:15:02: Aber die Entwurfsphase müsste eigentlich demnächst, das heißt irgendwann, muss ja jetzt die Konsolidierung fertig sein und man sagt, jetzt gießen wir das in fester Form irgendwie um.

00:15:15: Genau, worauf ich hinaus wollte, auch darin, oder der Annex Elf ist ja letztlich ein... Annex, der beschreibt, wie Computer gestützte Systeme in regulierten Umgebungen aussehen sollten.

00:15:30: Da gab es eine Reihe von Neuerungen.

00:15:33: Und wir können gleich nochmal auf die anderen Punkte eingehen.

00:15:36: Aber was ich jetzt da oder was wieder interessant fand, ist halt das Thema Archiv, das da sehr ausgedehnt wurde, nicht Julian?

00:15:44: Genau.

00:15:47: Ich will mich da auch mal zu Wort kommen lassen.

00:15:49: Nee, alles gut.

00:15:49: Ich will mich da gar nicht vordrängeln, denn ich habe da nur fleißig abkopiert.

00:15:53: Aber was ich spannend fand, war eben der Punkt eins, ein sechs aktuell, wo es genau wurde, sagt Annexelf, Thema Archivierung, der nochmal erweitert wurde, den gab es schon, der wurde wohl nochmal ein bisschen aktualisiert.

00:16:04: Da geht es eben um das Thema Schreibschutz.

00:16:07: Das nach Abschluss soll ich das mal einfach definieren.

00:16:09: Kurz kann ich ja mal kurz vorlesen hier.

00:16:11: Ich lese es jetzt vorher nicht aus meinem, ich habe es nicht auswendig gelernt.

00:16:13: Aber erstens Schreibschutz.

00:16:15: Nach Abschluss des Prozesses müssen GMP-Daten vor Änderungen geschützt werden.

00:16:19: Entweder durchsetzen auf nur lesen oder durch Archivierung über eine validierte Schnittstelle.

00:16:24: Also read only.

00:16:26: Oder eben ich habe eine validierte Schnittstelle, was dann eben wahrscheinlich ja keine Ahnung nochmal irgendwie in der Ansicht sein soll.

00:16:31: Das verstehe ich jetzt auch nicht ganz.

00:16:33: Klassischerweise ist das ja schon mal ein Punkt, den wir sowieso abdecken, wo wir aber immer wieder spannende Diskussionen haben.

00:16:39: Also mit einigen Anwändern, die sagen, ich will ja trotzdem noch mal an meine Daten vielleicht dran und vielleicht nicht verändern, aber damit spielen.

00:16:45: Ich denke mir so, eigentlich laut dem kannst du es eigentlich nicht, weil du musst es auf Redone setzen, du kannst nichts mehr verändern.

00:16:51: Genau, und das haben wir ja eigentlich auch.

00:16:55: schon die ganze Zeit beobachtet.

00:16:56: In unserer Kundenwelt gibt es die eine Seite, die sagt, einmal Archiv, immer Archiv, keiner darf mehr reinschauen, sei denn er hat ein besonderer Erlaubnis.

00:17:05: Und andere wollen noch gerne mehr daraus machen aus diesem Schatz und sehen das vielleicht nicht ganz so eng.

00:17:13: Aber auch da haben wir ja eine Vorstellung, wie man das Beste aus beiden Welten verbindet.

00:17:19: Ich meine, man hat ja den Schreibschutz insofern schon mal, dass man sagt, Die meisten haben wahrscheinlich Berichte gut bei Rotdaten, die sind dann, wie wir das letzte Folge hatten, die sind in Kapsulier, da kommst du sowieso noch mit Original Software und bla bla bla.

00:17:32: Aber wir machen ja Folgendes, wir legen ja sowieso die Daten ab und machen sie einfach mit, wir blockieren sie quasi mit einem Auditrail und machen sie darüber den Antast bauen.

00:17:43: Man sieht, man lockt dann ein, wer war, wann an den Daten dran.

00:17:46: Das ist das, was wir zum Thema Schreibschutz vor allen Dingen auch machen und das Tracking.

00:17:50: Dann geht es ja.

00:17:50: der zweite Punkt, was spannend ist, ist das Thema Verifikation.

00:17:53: Da steht drin, die Datenindekretät muss vor einer Löschung oder Übertragung überprüft werden, zum Beispiel mit des Prüf-Summen, also Hashing.

00:18:03: Denke ich mal, Archivierungsprozesse und Systeme müssen validiert sein.

00:18:06: Ich denke, das ist ein Klassiker, das ist einfach...

00:18:10: Ja, und das machen wir jetzt auf unserer Seite eigentlich schon immer so, solange ich's kenne.

00:18:15: Das machen wir so und wir haschen auch.

00:18:16: Das ist Klassiker eigentlich tatsächlich einfach um die Integrität der Daten festzustellen.

00:18:21: Dann geben es noch den Punkt drei, die Datensicherung.

00:18:23: Archivierte Daten müssen regelmäßig gesichert werden mit physischer und logischer Trennung der Backups.

00:18:29: Das sind wir wieder bei unserem Punkt von der ersten Folge.

00:18:32: Archiv versus Backup.

00:18:34: Hier wird sogar Backup mit im Archiv erwähnt.

00:18:37: Führt wieder zu Verwirrungen.

00:18:40: Eigentlich ist es ja nicht endlich mal miteinander verbunden, so dass es eigentlich klar wird, was der Backup eigentlich darstellt und was ein Archiv ist.

00:18:47: Willst du es nochmal ganz schnell erläutern in zwei Sätzen?

00:18:49: Backup-Archiv?

00:18:50: Nein, will er nicht.

00:18:51: Okay, dann lassen wir das.

00:18:53: Aber gerne Folge eins hören, da ist es nochmal erklärt.

00:18:56: Was ist... was ist Archiv, was sind die Unterschiede und warum ist es nicht das gleiche?

00:19:01: Und dann gibt es noch um die Langzeitbeständigkeit.

00:19:02: Ich glaube, Langzeitbeständigkeit, das ist ja eigentlich der Charakter, der Geist eines Archives, das ist ja die Langzeitbeständigkeit.

00:19:09: Das

00:19:09: steckt schon in dem Wort drin.

00:19:11: Genau, steckt in dem Wort irgendwie drin, ja Flüchtige, aber da ist noch spannend Philipp, da hatten wir mal ein interessantes Gespräch darüber.

00:19:17: Wenn flüchtige Speichermedien zum Beispiel CDs verwendet werden, muss ein validierter Prozess zur langfristigen Aufbaubarung bestehen, der auch einen sicheren Transfer auf neue Medien bei Bedarf sicherstellt.

00:19:27: Das heißt für mich, weiß nicht wie du das siehst, heißt das aber, ich habe eigentlich mehr Aufwand, wenn ich mit so physischen Medien wie CDs und diesen Bändern arbeite als mit einem klassischen digitalen Archiv, oder wie siehst du das?

00:19:37: Ja, ich meine, das war gerade bei den CDs, da muss man regelmäßig überschreiben.

00:19:42: Ich habe auch noch nicht den Fall gehabt, ich kenne mehr Archivierung auf Bändern, wenn es dann wirklich lang sein muss, oder halt dann wirklich auf Festplatten, wie es in den meisten Fällen ist.

00:19:53: Genau, das heißt, ich brauche da wieder, wenn ich die irgendwann mal wechseln möchte, diese Sachen, da ich sage, ich speichere nochmal um, Lifecycle Management Analog quasi, dann muss ich ja diesen Prozess wieder irgendwie validieren und wieder ein Prozess überlegen, wie ich das mache, macht mir also eigentlich mehr Aufwand, wenn ich diese Old School Archivierung wähle, diese Analoge Archivierung sage ich mal.

00:20:13: Und dann ist das der letzte Punkt, die Wiederauffindbarkeit, das ist eigentlich ganz spannend.

00:20:16: noch, welche wirrte Daten müssen in einem durchsuchbaren und sortierbaren Format abrufbar sein oder in Werkzeuge exportiert werden können, die diese Funktion unterstützen.

00:20:27: Das ist jetzt einfach meine Sinn, der Original Draft is in Englisch, das ist jetzt meine sinngemäße Übersetzung.

00:20:33: Also suchbar sind sie ja durch die Metadaten.

00:20:36: Ganz wichtig, nicht nur einfach mit dem Begriff, sondern mit allen möglichen Zusatzinformationen.

00:20:42: Richtig, und dann ist das zweite, was hattest du gesagt, es muss dann wieder lesbar sein.

00:20:47: In einem sortierbaren Format abrufbar oder in Werkzeuge exportiert werden können, die diese Funktion unterstützen.

00:20:53: Also am Ende wäre das ja quasi das, was wir letzte Folge besprochen haben, das Thema Legacy-System, ich gehe jetzt mal kurz auf die Chromatografiedaten, da habe ich meinen geschlossenen Pfeil und den nehme ich ins Archiv rein, speichere den da und wenn ich ihn sehen will, dann brauche ich dann eben die Original-Software und muss ihn wieder importieren und kann ihn dann anschauen.

00:21:11: Wenn ich das denn möchte, das ist damit so, so wird ich das zumindest interpretieren aktuell dargelegt.

00:21:17: Das heißt, unser Workflow, den wir uns ausgedacht haben, der funktioniert schon.

00:21:20: Ja.

00:21:21: Ist ja auch kommt ja auch nicht von ungefähr

00:21:23: kommt nicht von ungefähr genau.

00:21:24: das heißt am ende nochmal für die dies interessiert diesen workflow sich mal anhören möchten gerne in folge zwei reinhören.

00:21:30: da geht es genau darum wie kann ich das sicherstellen diese langzeit archivierung von von geschlossenen files also von cds daten chromatographie daten und wie kann ich sicherstellen dass ich die auch in zwanzig jahren mir noch anschauen kann sicher und konform.

00:21:43: Und diesen Workflow haben wir ja als auch schon mehrfach mit Partnern besprochen, präsentiert auf der Geräteseite, aber auch auf der Kundenanwenderseite.

00:21:52: Und da scheint es auch guten, Wiederhalt zu finden.

00:21:55: Ja, so sieht es aus.

00:21:57: Ich denke, das ist ein ganz spannendes Thema.

00:21:59: Und wir sind da dran.

00:22:01: Wir werden jetzt mal noch White Papers dazu auch mal veröffentlichen, weil das ist doch irgendwie was, was die Leute so bewegt.

00:22:06: Aber egal.

00:22:07: Da wäre es ja nochmal spannend auch, wenn man sagt, Das ist wahrscheinlich das, was immer problematisch sein wird.

00:22:12: Und deswegen ist der Workflow so wichtig, wenn man da auf KI geht, denn diese Files, diese geschlossenen Files, ich sag jetzt mal ein Chromillion oder ein Empowerfile, die kann ich eben nicht mit KI einfach lesen, weil sie ja, ich muss sie in die Software importieren, damit ich sie sehen kann, damit ich ein Chromatogramm sehe, irgendwelche Werte.

00:22:27: Deswegen ist es so wichtig, dass man, wenn man sie langzeit archiviert und unabhängig macht, dass man eben da verschiedene Zusatzdaten, Files, Arten, zum Beispiel eine PDF-Reports noch mit.

00:22:36: aktiviert, weil nur das wäre dann später auch für eine KI vernünftig lesbar und auswertbar.

00:22:40: Wenn man sagt, ich möchte, wie du vorhin angesprochen hast, Big Data Analysis machen oder sowas in der Richtung.

00:22:46: No Litsch Graph oder so.

00:22:49: Es zählt alles mit zu dem Thema, weil ich meine KI ist nur ein Tool, das kann man einsetzen später.

00:22:55: Wie man das einsetzt, ist einem natürlich frei überlassen.

00:22:58: Ich glaube, der Hauptpunkt ist hier eben zu sagen, an welche Richtung geht das ganze Spiel?

00:23:03: Ja.

00:23:04: Genau.

00:23:04: Und noch mal, ich will das noch mal verteidigen.

00:23:07: Das war der erste Aufschlag, den wir hier gesehen haben.

00:23:09: in diesem Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Anex-Ane

00:23:29: sind.

00:23:30: Das Thema KI wird ja schon, bevor es GVT gab, wurde das schon ein bisschen geritten.

00:23:35: Dieser Zug, obwohl man sagt, eigentlich ist das nur ein kluge Algorithmus, aber so richtig KI ist es nicht.

00:23:40: Ich frage mich jetzt mit dem neuen Draftwind, das kommt, denn es gibt einige Software und auch Hardware-Sorger, die sagen, sie haben KI-Funktionen drin, Auto Recovery und so was gibt es durchaus.

00:23:50: Ich will keine Herstellernamen, aber ich frage mich, Das könnte ja schon eine Sache sein, wo man dann später mal auf die Nase fällt, wenn das aktiviert wird und man muss plötzlich Sachen validieren, die man vorher sonst nie validiert hat.

00:23:59: Zum Beispiel irgendeinen Algorithmus in einer Chromatographie Software, wo wir wieder da wären, der automatisch Beaks erkennt, den müsste ich mir dann irgendwie validieren.

00:24:07: Das ist mal ganz spannend das Thema.

00:24:09: Also wie das gelöst wird, das ist sicherlich noch offen.

00:24:11: Dürfen sich andere drum kümmern, Gott sei Dank, nicht wir.

00:24:14: Aber ich finde es einfach mal ganz interessant anzusprechen, das Ganze.

00:24:17: Vielleicht nennt man es dann einfach nicht mehr KI, damit eigentlich manche Leute kalte Füße bekommen.

00:24:22: Das glaube ich auch.

00:24:24: Also das wird wahrscheinlich ganz viel wieder zurückgezogen an Marketing-Kampagnen, die sich so vorher auf diesen Begriff geschmissen haben, die wir an wahrscheinlich zurück rudern, weil das könnte echt noch, wie sagt man, der lange Arm, der kommt da wieder zurück und fordert jetzt plötzlich Validierungen, denn die sind ja hier klar dann auch vorgeschrieben im Annex, öffnen, zwanzig, genau.

00:24:44: Ja, lieber Philipp.

00:24:45: Dann ist jetzt die Frage, wollen wir zusammenfassen oder noch nicht?

00:24:49: Was hätten wir noch für ein Thema?

00:24:51: Wir haben so ein bisschen das Knowledge Management ausgelassen, aber das haben wir doch auch schon mal berührt, oder?

00:24:56: Haben

00:24:56: wir berührt, aber wir können ja noch mal ganz kurz zurückspringen.

00:25:00: Lass uns doch noch mal ganz fix zum Knowledge Management gehen.

00:25:03: Das wird immer bei uns nur ganz kurz angehakt sozusagen und dann wieder fallen gelassen.

00:25:08: Warum ist es?

00:25:09: Hier so interessant, wenn man KI über das Archiv legt.

00:25:13: Warum ist da das Knowledge Management so interessant?

00:25:15: Was denkst du so aus mit deinen Knowledge Management Erfahrungen?

00:25:19: Ja, das sind wir ja wieder bei den Punkt, den ich glaube ich das letzte Mal schon mal aufgebracht hatte.

00:25:25: Was verstehst du unter Knowledge Management?

00:25:28: Das ist ja so ein altes Hypewort wie jetzt fast KI.

00:25:32: Knowledge Management, das ist ja für mich aus der Historie eigentlich das sinnvolle Zusammenbringen der relevanten Daten für eine Domäne, in einem Bereich, in unserem Fall in den Lebenswissenschaften, für die Pharmaindustrie.

00:25:46: Und da hat man viel Textbuchinformation, nenne ich das mal, also viel wirklich klar definierte Informationen, wie Gene zusammenhängen, wie Proteine damit zusammenhängen, wie Krankheiten damit zusammenhängen.

00:25:57: Und daraus lassen sie schön.

00:26:00: Deterministisch, also fast händisch gezeichnet, Wissensgrafen, Knowledgegrafen erstellen, so schöne Netzwerke.

00:26:08: Und die sind dann so wie diese im Textbuch fast aussehen.

00:26:12: Und das ist für mich so die Grundlage des Knowledgemanagements, das ist so das Grundgerüst und da wird dann die Evidenz dran gehängt, die man im Labor findet.

00:26:20: Dass man die Experimente oder die Literatur, die dann bestimmte Relationen in diesen Wissensgrafen unter Mauern, dass man die daran hängt.

00:26:32: Und dann kann man darüber wieder Computergestütze suchen machen, über diesen NISS-Wissensgraf, unter Zuhilfenahmet zum Beispiel der experimentellen Effektenzen und dann dieses Modell, sagen wir mal, verstärken in die eine Richtung oder in die andere Richtung, schieben diesen Wissensgraf.

00:26:51: Aber hier, kurze Frage hierzu, weil das ist ja interessant, du siehst den Trend dann aber den Wissensgraf erstellen zu lassen mit der KI.

00:26:59: Genau, und darauf wollte ich gerade hinaus.

00:27:00: Das ist jetzt so der, wie ich ihn historisch kenne, der klassische Ansatz.

00:27:04: Und jetzt versucht man natürlich in den letzten Jahren zunehmend diesen Datenwust, Experimentenwust, den man hat, also diese Big Data, sage ich mal vereinfacht, zu nehmen, in eine KI zu stecken, vereinfacht gesagt und daraus dann einen Wissensgrafen zu generieren, also aus den Daten dieses Modell erstellt wird.

00:27:26: Und da können wir das... Ich habe das gekehrte Ansatz letztlich.

00:27:29: ist der umgekehrte Ansatz und da könnt ihr das Archiv schon helfen.

00:27:32: Das hat man ja auch kurz beleuchtet, glaube ich, in der letzten Folge.

00:27:35: Siehst du das als größten Trend?

00:27:37: Was siehst du?

00:27:37: Das ist eine gute Frage vielleicht nochmal.

00:27:39: Was siehst du denn im Bereich KI in Verbindung mit Archiv?

00:27:42: Was denkst du ist der größte Trend und was ist am schnellsten zu erreichen?

00:27:47: Also lasst mich ganz normal das ganz kurz nochmal das Knowledge Management zu Ende führen.

00:27:52: Ich glaube, wo es jetzt gerade hingeht oder was der beste Nutzen ist, aus meiner Sicht ist eine Kombination dieser beiden Ansätze.

00:27:58: Man hat also dieses bisschen wissensbasierte Netzwerk und kombiniert das dann mit dem KI-generierten, datenbasierten Wissenskraft.

00:28:13: Wenn man jetzt diese Ansätze sich auf auf Archivdaten überlegt oder auf dem Archiv, letztlich auf den Daten, die in dem Archiv stecken, kann sehr viel Informationen drinstecken, man muss wieder das Thema beachten, darf man denn hier überhaupt die Daten dran, will man das, oder legt man sich eine zweite Kopie hin, man hat sie ja sowieso und man hat dann eine Archivkopie und daneben dem Archiv eine identische Sandkastenspielversion.

00:28:42: und Dann hat man ja im Archiv viele Metadaten gesammelt, die oft sehr sinnvoll nutzvoll sind und hierauf sie schon Möglichkeiten dann mit KI ansetzen, auf den eh schon vorhandenen Daten Wissen zu generieren, Informationen zu extrahieren, Informationen über die Laborprozesse, über die Produktionsprozesse zu erhalten, über die Maschinenauslastung und so weiter.

00:29:09: Das sind also ganz praktische Anwendungen, die auch jetzt Kollegen die mehr im Labor stehen, manchmal berichten.

00:29:16: Wir sagen ja aktuell, oder das ist der generellen Trend auch bei der Archivierung, ist AI Readiness.

00:29:22: Das heißt AI Readiness bedeutet ja nach meiner Definition erstmal, ich gebe so viel Metadaten, dass eine KI ganz einfach und schnell das findet.

00:29:31: Ja, richtig.

00:29:33: Ich würde es sogar noch mal einfacher sehen.

00:29:37: Das heißt für mich genau, dass Metadaten in der Art eine Art und Weise zur Verfügung stehen, dass eine KI drauf losgelassen werden kann.

00:29:45: Dass sie also, dass sie irgendwo ein Teil sortiert, verfügbar da ist, dass man dann KI-Ansätze drauf machen kann.

00:29:52: Das ist ein super spannendes Thema.

00:29:54: Ich glaube da, das ist wahrscheinlich am schnellsten umsetzbar, ist das Thema einfach KI-Suche im Archiv.

00:30:00: Kann ich mir super spannend vorstellen und am schnellsten umsetzbar.

00:30:04: und der nächste Schritt, die nächste Evolutionsstufe, wäre dann wahrscheinlich, wie du es angesprochen hast, zu sagen, komm.

00:30:09: Wir haben eine gute Möglichkeit, Daten richtig, richtig uns reinzuschauen in die Daten.

00:30:14: Ich glaube, das ist nochmal ein anderer Punkt.

00:30:15: Ich habe jetzt ein bisschen KI Erfahrung, habe noch ein Start-up und da machen wir KI auch bisschen.

00:30:19: und da ist schon, das ist schon sehr aufwendig, wenn man sagt, ich möchte Daten extrahieren, da braucht man, und wenn ich sie denn speichern will und richtig Nutzbau machen will, auch schnell, sonst hast du dann, dann braucht man eben irgendwo gute Extraktoren.

00:30:33: Tabellen und so was ist alles schwierig.

00:30:35: Aber ich glaube, das wird auch funktionieren.

00:30:38: Ich habe ja mal einfache Summierungen machen lassen.

00:30:41: Von TrunchetGBT ging hundert, Punktzeihundert.

00:30:45: Und der kam immer auf hundert und ich kam immer nur auf siebzig.

00:30:47: Und am Ende kam raus, dass er echt falsch addiert hat.

00:30:49: Also selbst da.

00:30:51: Solche Kleinigkeiten können problematisch sein.

00:30:53: Und dann, ich glaube, kratzen wir auch echt im Bereich der Critical GXP-Application.

00:30:59: Also wenn ich den Entscheidungen treffe anhand, So einer so eines LNMs was mir dann irgendwelche Daten davor rechnet.

00:31:07: Ich glaube das das ist schon total.

00:31:10: Genau mein Punkt.

00:31:11: darf ich noch ganz kurz noch mal einladen, bevor du da weiter gehst.

00:31:13: Also mehr kam das gerade noch.

00:31:15: Also KI Anwendung im Archiv also wirklich praktischer Nutzen davon.

00:31:21: Das sind zum Beispiel auch so Ansätze wie dass man sagt man lässt sich Audit Trail KI unterstützt auswerten.

00:31:29: Ja, ja.

00:31:30: Das haben wir gar nicht angesprochen.

00:31:32: Das haben wir ja auch schon mehrfach diskutiert.

00:31:34: In einem Archiv unserer Art wird ja ein umfangreicher Auditrail gehalten.

00:31:41: Das heißt, jede Bewegung, jede Veränderung, jedes Tun wird da reported.

00:31:46: Das muss teilweise ausgewertet werden, nach Anomalien gesucht werden, was ein Riesenaufwand ist.

00:31:51: Und hier könnte zum Beispiel KI sehr gut helfen.

00:31:54: Hier haben wir auch konkrete Ansätze und Vorstellungen und sprechen mit Partnern.

00:31:59: Aber das ist zum Beispiel ein direkter Nutzen der KI für den Alltag mit dem Labor, ohne dass man jetzt weiter an große Erkenntnisgewinne außerhalb der Labor-Daten denken muss.

00:32:18: Das ist ein super spannendes Ding, das hatte ich überhaupt nicht.

00:32:20: Nicht auf dem Schirm ist das Thema Auditreauswertung.

00:32:23: Das ist natürlich wichtig, weil es stimmt, da sind viele Laborleiter, Head of QC, also in einer Pharma-Welt an sich ist das eben wichtiger Punkt, das Thema Auditreauswertung.

00:32:32: Ja, spannend, das ist eine gute, ich glaube es ist sogar fast Zeit langsam, das ganze Auslaufen zu lassen.

00:32:40: Jetzt ist es ein ganz weit gefächertes Thema, welche Sachen da gehen werden.

00:32:46: können wir rüber.

00:32:47: Philipp, fass doch noch mal ganz kurz zusammen, was andere in der Folge am wichtigsten besprochen.

00:32:53: Ja, wir haben uns heute zwei Sachen angeschaut, um das Archiv, die auch Einfluss auf die Zukunft des Archives, des digitalen Archives haben.

00:33:00: Das sind nämlich die Anex-Elv und Zweiundzwanzig, Anex-Elv, der sich generell um computergestützte Systeme kümmert im GXP Bereich.

00:33:12: Und hier war halt ein ergänzter Absatz besonders interessant, wo es um die genauere Beschreibung von Archiven geht.

00:33:21: Das Zweite fand ich sehr interessant, war der Annex-II, wo KI Unterstützung in regulierten Prozessen beschrieben wird.

00:33:33: Du hast die Sache so ein bisschen kritischer gesehen als ich, aber ich denke, es ist ein guter Ansatz, um hier Erstmalig KI im regulierten Farmerbereich, in regulierten Bereichen zu benutzen.

00:33:45: Genau.

00:33:46: Ja, also ich bin, ich denke, dass es richtig gut, dass es den gibt und dass das nach vorne geht.

00:33:50: Ich sehe das, ich sehe das aber ein bisschen kritischer an meinen Stellen, weil mir Definitionen fehlen.

00:33:55: Lass uns schauen, was am Ende der finale, die finale Entscheidung, was das finale Dokument bringt, da wird es sicherlich nochmal Aufruhr geben, da wird sicherlich nochmal Diskussion zu geben, dann ist es aber zu spät.

00:34:07: Dann muss man wieder zwanzig Jahre warten, bis irgendwer was anfackt, denn den Annex Elf, das stand ja, den gab es seit nineteenhundert vierneunzig.

00:34:13: Aber ich möchte noch kurz anbringen, Philipp, was wir auch noch besprochen haben, sind die aktuellen Trends im Bereich KI.

00:34:19: Was wird da gehen?

00:34:20: Ich glaube, da ist noch viel möglich auch im Bereich Archiv, auch wenn das Archiv immer so langweilig klingt, da wird noch viel gehen.

00:34:26: Gerade das Thema KI-Suche, KI-Prüfung von Auditrails, das Zusammenführen von Wissensdaten, also Knowledge Graphs, wie du es gesagt hast, das könnte man aus dem Archiv KI gestützt bewerkstelligen, wahrscheinlich in der Zukunft.

00:34:41: Vielleicht nochmal ganz kurz gesagt, wir stellen Archive oder ein Archiv zur Verfügung, ein digitales Archiv mit.

00:34:48: Was bedeutet, wir geben Metadaten so, dass gerade die Suche später einfach wird.

00:34:52: Und wir haben natürlich ein Auditrail, den man in auch mittels KI analysieren kann, wenn man das möchte.

00:34:58: So.

00:34:58: Und ich glaube, damit hat die Folge ein ganz gutes Ende gefunden.

00:35:01: Möchtest du noch was sagen, Philipp?

00:35:03: Ja, Julian, vielen Dank.

00:35:04: Du hast es schön zusammengefasst.

00:35:06: Was?

00:35:07: werden wir dann das nächste Mal behandeln, vielleicht noch als kurzen Ausbild.

00:35:09: Ah,

00:35:10: das ist ein super, ja, ganz super die Information.

00:35:12: Das nächste Mal geht es um das Thema Ransomware Attacks und wie man sich da vorschützen kann mit guten Archivierungsstrategien, denn viele Unternehmen leiden sehr darunter, dass wenn solche Ransomware-Attacken stattfinden, dass nicht nur aktive, sondern auch also Altdaten zum Beispiel verschlüsselt werden können, die gerade im Formabereich super wichtig sind, denn die muss sich ja entsprechend der Archiv-Risten vorhalten.

00:35:34: Und darüber werden wir sprechen mit unserem Kollegen von der Eternity Group der Lukas Schäfer.

00:35:41: Der ist ransomware spezielles Produkt spezielles bei der Eternity und der wird uns da ganz spannende Insights zu dem Thema geben, wie man das besser machen kann, wie man sich davor schützen kann, um welche Strategien es da gibt.

00:35:51: Das klingt spannend, darauf freue ich mich.

00:35:52: Darauf freue ich mich auch.

00:35:53: Vielleicht noch kurze Info in den Show-Notes, Philipp, könnten wir noch vielleicht die Drafts zumindestens zum Anex-Twenty verlinken, dass man da gleich mal Zugriff hat.

00:36:02: Wer das Mindest interessiert, der kann sich das mal durchlesen.

00:36:04: Genau.

00:36:04: Und ansonsten sind wir immer offen für Feedback und Rückfragen, gerne an infoatbio-medium.com.

00:36:11: Und dann würde ich sagen, würden wir uns verabschieden, oder, Philipp?

00:36:14: So machen wir das, lieber Julian.

00:36:15: Vielen Dank.

00:36:16: Es hat Spaß gemacht.

00:36:17: Es hat sehr großen Spaß gemacht.

00:36:18: Und bis zum nächsten Mal bei DatenDoku Digital, der Pharma-Archiv-Podcast.

00:36:22: Auf Wiederhören!

00:36:27: Das war DatenDoku Digital, der Pharma-Archiv-Podcast.

00:36:32: Mehr Informationen und Kontaktmöglichkeiten findest du in den Shownauts.

00:36:36: Bleib digital, bleib dokumentiert und bis zur nächsten

00:36:39: Folge

00:36:40: von DatenDoku Digital.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.