𝗨𝗕𝗦 𝗛𝗮𝗶𝗻𝗲𝗿 𝗶𝘀𝘁 𝗯𝗲𝗶 𝗱𝗲𝗻 𝗜𝗧-𝗧𝗮𝗴𝗲𝗻 𝗶𝗻 𝗙𝗿𝗮𝗻𝗸𝗳𝘂𝗿𝘁 𝗮𝗺 𝗠𝗮𝗶𝗻 Als Leiter Support bei UBS Hainer kennt Danny Tamm die täglichen Herausforderungen von Testern und Entwicklern. In komplexen Systemlandschaften bewegen sich große Mengen von Daten. Die Herausforderung besteht darin, ohne Kenntnis der Datenbankstruktur schnell und effizient die passenden Testdaten zu finden. In seinem Vortrag 𝗘𝗶𝗻𝗲 𝗛𝗲𝗿𝗮𝘂𝘀𝗳𝗼𝗿𝗱𝗲𝗿𝘂𝗻𝗴 𝗳ü𝗿 𝗧𝗲𝘀𝘁𝗲𝗿 𝘂𝗻𝗱 𝗘𝗻𝘁𝘄𝗶𝗰𝗸𝗹𝗲𝗿 𝗪𝗼 𝗳𝗶𝗻𝗱𝗲 𝗶𝗰𝗵 𝗗𝗮𝘁𝗲𝗻 𝗳ü𝗿 𝗺𝗲𝗶𝗻𝗲 𝗧𝗲𝘀𝘁𝘀? präsentiert Danny Tamm bewährte Lösungen. Dabei werden u.a. folgende Fragen praxisnah beantwortet: - Wie suche und finde ich Daten mit Hilfe meiner fachlichen Kriterien? - Wie kann ich diese Daten in meine Testsysteme transportieren und dort einfügen? - Wie stelle ich eine Verfremdung der Daten sicher? - Wie lassen sich die Prozesse für regelmäßige Abläufe automatisieren? Also den Vortrag nicht verpassen: 𝗠𝗶𝘁𝘁𝘄𝗼𝗰𝗵, 𝟭𝟭. 𝗗𝗲𝘇𝗲𝗺𝗯𝗲𝗿 𝟮𝟬𝟮𝟰 𝘂𝗺 𝟵 𝗨𝗵𝗿 𝗯𝗲𝗶 𝗞𝗼𝘀𝗺𝗼𝘀/𝗘𝗯𝗲𝗻𝗲 𝟯 Weitere Infos und Anmeldung: https://lnkd.in/eCtjgfV4 Siehe dazu auch das Interview mit Danny Tamm in unserem Blog: https://lnkd.in/ea5yGxv7 UBS Hainer GmbH - Test Data Automation ist Experte im Bereich Software Testing und hat sich dabei auf Tools zur automatisierten Testdaten-Beschaffung spezialisiert. #ittage #Networking #UBSHainer #TDM #TestDaten #SoftwareTesting #TestDataAutomation #XDM #TestDataManagement
Beitrag von UBS Hainer GmbH - Test Data Automation
Relevantere Beiträge
-
Schritt 3 der #Systemmigration – Validierung und Testen: Sicherstellen, dass alles passt ✅ Die Bereinigung ist abgeschlossen – aber ist Ihre Datenbasis wirklich migrationsbereit? Die #Validierung und das Testen Ihrer Daten ist der letzte Qualitätssicherungsprozess vor der Migration. 💡 Hier sind unsere Tipps: 1️⃣ Konsistenztests: Prüfen Sie, ob alle Datenbeziehungen korrekt abgebildet sind. ➡️ Validieren Sie, ob Primär- und Fremdschlüssel übereinstimmen und ob Datenbeziehungen logisch sind. 2️⃣ Vollständigkeitstests: Sicherstellen, dass keine Daten fehlen. ➡️ Vergleichen Sie die Datenmenge vor und nach der Bereinigung, um sicherzustellen, dass nichts versehentlich gelöscht wurde. 3️⃣ Integritätstests: Überprüfen Sie, ob die bereinigten Daten den Anforderungen des neuen Systems entsprechen. ➡️ Erstellen Sie Test-Szenarien, um zu simulieren, wie sich die Daten im neuen System verhalten werden. Warum ist das Testing so wichtig? Jeder Fehler, der hier übersehen wird, wird im neuen System zum Problem. Eine gründliche Validierung minimiert das Risiko von Fehlfunktionen, Datenverlusten oder Inkompatibilitäten. 📩 Im Whitepaper finden Sie eine Checkliste für umfassende Tests und Tipps für den Aufbau einer robusten Teststrategie. Laden Sie es jetzt herunter: https://lnkd.in/ei2bBAKk #dacon #data #technology #datamigration #databridge
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
-
#DOAG2024 🌐 | Testdaten zu erstellen ist oft komplizierter, als es sein sollte – Integrity-Constraints und unnötiger Aufwand inkl. Frustration. Alexei Ovetchkine und Stefan Winkler stellen ein DB-basiertes Datengenerator-Tool vor, das es vereinfacht. ➡️ https://scomp.ly/zV5b6Lp
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
-
🔵 "𝗧𝗲𝘀𝘁 & 𝗤𝘂𝗮𝗹𝗶𝘁𝘆-𝗧𝗮𝗴" 𝗮𝘂𝗳 𝗱𝗲𝗻 𝗜𝗧-𝗧𝗮𝗴𝗲𝗻 𝗶𝗻 𝘃𝗼𝗹𝗹𝗲𝗺 𝗚𝗮𝗻𝗴𝗲! Großartig, wie viel Energie in der Testing-Community steckt. Heute Vormittag unter anderem: Spannende Insights zur Frage "wo finde ich Testdaten" und "wie verfremde ich sensible Produktivdaten" von Danny Tamm (UBS Hainer GmbH - Test Data Automation). 👉 Der InputLab-Beitrag zum Thema: Testdaten ohne Datenschutzrisiken – mit vollsynthetischen Lösungen, die effektiv Fehler finden. 📩 Sprecht mich an oder schreibt mir, wenn ihr auch Herausforderungen bei der Testdatenbereitstellung habt! #ITTage #SoftwareTesting #Testdaten #SoftwareQuality #Networking
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
-
🚀Effiziente Datenbanktests mit der H2-Datenbank 🚀 In unserem neuesten Blogpost beleuchten wir die Vorteile von Datenbanktests mit der H2-Datenbank. 🔍 💡 Warum H2? Die In-Memory-Datenbank H2 ermöglicht schnelle und unkomplizierte Tests von Datenbankanwendungen – ohne komplexe Setups und mit hoher Flexibilität. 📄 Was erwartet euch im Blogpost? - Einblick in die H2-Datenbank und ihre Einsatzmöglichkeiten -Praktische Tipps zur Einrichtung und Konfiguration -Vorteile gegenüber anderen Testdatenbanken 🔗 Lest jetzt den gesamten Beitrag und erfahrt, wie ihr eure Testprozesse mit H2 optimieren könnt: https://lnkd.in/gNKbJcbK #Datenbank #SoftwareTesting #H2 #InMemoryDatabase #Conciso #Testautomation #Entwicklung #SoftwareEngineering
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
-
Daten und Datenprozesse testen - so einfach wie nie? Der normalerweise sehr aufwendige Test von Datenprozessen wird mit SQACE extrem vereinfacht. Das reduziert Kosten und schafft Raum für dediziertes Backend-Testing. Zusätzlich entlastet SQACE eure IT, da Business-Experten sehr viele Tests selbständig implementieren können. Und die Qualität der Tests steigt, da Business-User die Daten hands-on erleben und so besser kennen. Wo ist euer Bottleneck? 🍾 #DataTesting #ITAutomation #DataQuality #BusinessProcess #SQACE #Efficiency #CostReduction #BackendTesting
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
-
Puh, Datenmigration. Wer es gemacht hat, weiß, dass das ein schwieriges Thema sein kann. Bestehende Informationen in ein neues Component-Content-Management-System (CCMS) zu übertragen, ohne dabei die Qualität und die Kosten aus den Augen zu verlieren, ist schon 'ne Aufgabe :wink: Deswegen haben wir für euch hier mal die wichtigsten Aspekte, die ihr berücksichtigen solltet: 👉 Quelldaten: Das Format deiner Daten beeinflusst, wie hoch der Grad an automatisierter Migration möglich ist. Unstrukturierte Daten erfordern viel Nacharbeit, während gut strukturierte, standardisierte Daten (vor allem im XML-Format) die Migration erleichtern. Easy peasy! 👉 Qualität: Überlege, ob du die Daten einfach übernehmen oder optimieren möchtest. Denk daran, dass ein CCMS nur dann richtig funktioniert, wenn die Daten standardisiert und modularisiert sind. 👉 Ziele und Anforderungen: Denk an zukünftige Anforderungen und Ziele, wie Prozessoptimierungen oder die Integration mit anderen Systemen. Vorbereitung deiner Daten ist wichtig, um zukünftige Möglichkeiten offenzuhalten. Hier sind ein paar Empfehlungen: 🏁 Analysiere deine Daten und setze klare Ziele. 💴 Plane sorgfältig, da Nacharbeiten teuer werden können. 📗 Informiere dich über die Möglichkeiten deines gewählten CCMS. Also Automation oder “Handarbeit”: 🌱 Automatisierte Migration: Wenn deine Daten standardisiert und konsistent sind, kannst du eine automatisierte Migration in Erwägung ziehen. Oft sind jedoch Datenbereinigungen und Transformationen erforderlich. 🌱 Manuelle Migration: Dies ist eine gute Wahl, wenn deine Informationen unstrukturiert sind oder in ungeeigneten Formaten vorliegen. 🌱 Teilautomatisierte Migration: In einigen Fällen kann es sinnvoll sein, unvollständige oder unstrukturierte Informationen im System weiterzuverarbeiten. Denke daran, die Vor- und Nachteile dieser Ansätze abzuwägen und zwischen einmaligen und wiederkehrenden Migrationsprojekten zu unterscheiden. Keine Zeit, kein Personal oder einfach keine Lust das selber zu machen? Gerne unterstützen wir euch bei der Datenmigration! Einfach melden :telephone_receiver: :e-mail: #datenmigration #ccms #styrz
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
-
Manuelle Prozesse beim Testen von Datenverarbeitungen – Zeit für Veränderung? Manuelle Prozesse beim Testen von Daten und Data-Pipelines sind zeitaufwendig, fehleranfällig und kostenintensiv. Viele Banken kämpfen damit, ihre Effizienz zu steigern und gleichzeitig die Datenqualität zu gewährleisten. SQACE hilft dir diese Herausforderungen zu meistern. Unsere Lösung automatisiert das Testen von Daten und Datenprozessen, reduziert die Abhängigkeit von manuellen Eingriffen und erhöht die Qualität von Datenprozessen. SQACE revolutioniert das Testen, in dem es sogar es Business-Experten ermöglicht, Tests selbständig durchzuführen und so die IT-Abteilung zu entlasten. Das Ergebnis: Weniger Fehler, geringere Kosten und mehr Raum für die eigentlichen Aufgaben. 🕙 Bisher aufwendige Vorgänge beim Datentesten können mit SQACE Low-Code Komponenten ganz, einfach und schnell durchgeführt und automatisiert werden. Testet ihr Daten noch manuell oder bindet ihr wichtiges IT-Personal mit der Wartung von Eigenentwicklungen für den Test? #DataProcessing #Automation #FinTech #DataQuality #SQACE #BusinessProcess #ManualProcesses
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
-
🔧 ITC-Tipp der Woche: Vermeidung endloser Loops in Automation Runbooks Leidet ihr System unter hoher Serverlast, einer Flut von Logs und unnachvollziehbaren Webcalls in den Serverscripts? Ein häufiger Grund könnte eine Fehlkonfiguration im Auslieferzustand sein, die zu endlosen Loops bei Automation Runbooks führt. Im Business Object „IVNT_Automation_Transactions“ gibt es ein Problem: Beim Anlegen eines neuen Datensatzes wird ein Script gestartet, welches das gewünschte Runbook ausführt. Automation schreibt den Status zurück, wenn das Runbook abgeschlossen ist – und triggert damit erneut ein Script, das die Ausführungsdetails abholt und wieder in den Datensatz schreibt. Klingt wie ein Loop? Das ist es auch! Achtung: Der Fehler liegt im Trigger für Updates! Out of the box ist der Trigger „Object Event“ - „On Update“ fälschlicherweise gesetzt und muss entfernt werden! Jede Änderung am Datensatz, auch durch das bereits ausgelöste Script, führt zur erneuten Ausführung des Scripts. Das Resultat? Ein endloser Loop, der bis zum Systemstillstand führen kann. 🚫 Die Lösung ist simpel: Entferne den Haken für „On Update“ (lass den Status-Trigger unangetastet) und schon wird das System entlastet. In einem konkreten Fall führte diese einfache Änderung zu einer drastischen Reduktion: Von 3000 Transaktionen pro Minute auf nahezu null, obwohl nur wenige Runbooks tatsächlich gestartet wurden. Allein dieser kleine Haken verursachte die massenhafte, unnötige Ausführung durch einen fehlerhaften Loop. 💡 Ein kleiner, aber entscheidender Schritt für mehr Performance und weniger Serverstress!
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
-
🕖🕞 In zwei Zeiten gleichzeitig sein – das und vieles mehr kann DVG. In einem DWH müssen häufig alle Abfragen vollständig konsistent reproduzierbar sein, aber gleichzeitig auch rückwirkende fachliche Änderungen eingearbeitet werden. Dies ist z.B. der Fall, wenn im DWH die Unternehmensbilanz berechnet wird (die darf sich niemals ändern) 📈 und eine Versicherung Schadenmeldungen auswertet (Schäden werden immer fachlich rückwirkend gemeldet). 🧮 Dann benötigt man eine bitemporale Historie mit technischer und fachlicher Gültigkeit (Kenntnisbeginn im DWH bzw. fachlicher Gültigkeitsbeginn der Information). In den meisten DWH’s steigt dadurch die Komplexität bei der Beladung, der Entwicklung und der Datenverwendung deutlich an und alle Schritte werden aufwendiger. 😓 Nicht so im Data Vault Generator: 😀 Hier entfällt dieser Aufwand de facto mit Hilfe konsequenter Automatisierung. Mehr Infos dazu gibt’s im verlinkten Blogartikel und dem zugehörigen Vortrag von unserem crossie Jörg Stahnke. >> https://lnkd.in/eT3KsADe Der DVG automatisiert aber nicht nur die bitemporale Historie, sondern auch alle anderen Schritte in einem Datenprojekt. Z.B. die Erstellung des Datenmodells, die fachliche Logik zur Berechnung von Kennziffern, das Deployment, die Migrationsskripte, den Test, Data-Lineage Informationen, die Beladungsprozesse im Produktivbetrieb, Dokumentationen, die Versionsverwaltung, DSGVO Konformität, um nur einige zu nennen. 😉 Mehr Infos dazu gibt’s jederzeit gern in einem persönlichen Gespräch. Um welche Zeit passt es denn?⌚️ #DigitalGenial #DVG #DWH #Crossnative
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
-
Stufe 4 zur Data Resiliency Data Resiliency geschieht nicht per Mausklick. Für eine datenresiliente Infrastruktur benötigen Sie fünf essenzielle Fähigkeiten. 🛡️ ✅ Etablieren Sie eine Cybersicherheits-Architektur als Basis. ✅ Immutabilität: Stellen Sie einfach Daten von bestimmten Zeitpunkten schnell wieder hier. ✅ Gewinnen Sie frühzeitig aufschlussreiche Einblicke durch Malware-Scanner und Datenmustererkennung, um Ihre Abwehrmechanismen neu auszurichten. ✅ Sorgen Sie für eine schnelle Erholung Ihrer Geschäftstätigkeit. ✅ Vereinfachen Sie die Wiederherstellung durch automatisierte Abläufe. Erfahren Sie mehr in unserem E-Book „Data Resiliency mit IBM Storage Defender“. 💪 👉 Hier E-Book herunterladen: https://lnkd.in/djDumCHH
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
432 Follower:innen
Mehr von diesem:dieser Autor:in
-
Test Data Icebox – Data storage for multiple use in automation
UBS Hainer GmbH - Test Data Automation 7 Monate -
XDM platform as a central hub for TDM-related information
UBS Hainer GmbH - Test Data Automation 8 Monate -
Put your test data management on autopilot
UBS Hainer GmbH - Test Data Automation 9 Monate