Überblick über das Internet of Things und Implikationen auf die Anwendungsentwicklung

Alexander Bauer und Markus Müller

Derzeit sind bereits mehr Geräte mit dem Internet verbunden als Menschen auf der Erde. Bis zum Jahr 2025 wird erwartet, dass mehr als 30 Milliarden Geräte mit dem Internet verbunden sind und mit Anwendungen kommunizieren. Dies hat für die Anwendungsentwicklung einige Implikationen, da neben der „klassischen“ Entwicklung weitere Disziplinen und mehrere Beteiligte zu berücksichtigen sind.

Link zum PDF des Vortrags Link zu den Folien des Vortrags

Qualitätsanalyse mit IoT-Testware

Sascha Hackel, Dorian Knoblauch and Axel Rennoch

Link zum PDF des Vortrags Link zu den Folien des Vortrags

Der neue ISTQB Foundation 2018 kommt!

Matthias Hamburg

Link zum PDF des Vortrags Link zu den Folien des Vortrags

Certified Automotive Software Tester 2.0

Ralf Reißig and Horst Pohlmann

Link zum PDF des Vortrags Link zu den Folien des Vortrags

Haben wir das Richtige getestet? Erfahrungen mit Test-Gap-Analyse und Ticket Coverage in der Praxis

Dennis Pagano

Bei langlebiger Software treten die meisten Fehler dort auf, wo viel geändert wurde. Wenn wir richtig testen wollen, müssen wir daher sicherstellen, dass keine wichtigen Änderungen ungetestet bleiben. Hierbei hilft uns Test-Gap-Analyse, ein Analyseverfahren, das ungetestete Änderungen ermittelt. Ticket Coverage ist eine Verfeinerung der Test-Gap-Analyse, die es ermöglicht, sogar pro Ticket zu ermitteln, welche Bereiche nicht (oder nicht ausreichend) getestet wurden.

Beide Analysen entstammen verschiedener Forschungsarbeiten, die wir selbst durchgeführt oder betreut haben, und sind mittlerweile in unserem Produkt im Praxiseinsatz.

Nach einer kurzen Einführung in Test-Gap-Analyse und Ticket Coverage stelle ich im Vortrag die Erfahrungen vor, die wir in den letzten Jahren im Einsatz bei Kunden und in der eigenen Entwicklung gesammelt haben, und beantworte u.a. folgende Fragen:

 

  • Wie stelle ich als Tester sicher, dass ein Hotfix gründlich getestet wurde?
  • Als Tester muss ich viele User Stories einzeln testen. Wie erkenne ich, wie gründlich ich jeweils getestet habe und wo noch Lücken sind?
  • Wie behalte ich als Test Manager den Überblick, wie gründlich mein System getestet wird, obwohl Entwicklung und Test auf parallelen Branches und in verschiedenen Umgebungen stattfinden?
  • Wie kann ich als Test Manager die Testabdeckungen von unterschiedlichen Teststufen (Unit-Test, Integrationstest, Akzeptanztest, User-Trampeltest usw.) vergleichen und Änderungen identifizieren, die von keiner Teststufe geprüft wurden?

 

Außerdem stelle ich Best Practices und nützliche KPIs im kontinuierlichen Einsatz vor und gebe einen Ausblick zum Einsatz im Produktivbetrieb, der es erlaubt, zu ermitteln, ob alte und neue Features von Anwendern tatsächlich eingesetzt werden.

Link zum PDF des Vortags Link zu den Folien des Vortrags

Virtual IoT Learning Environment-Implementierung einer virtuellen Lernumgebung für Testaktivitäten im Bereich Internet der Dinge

Thomas Auer, Ronak Zarhoun and Michael Felderer

Link zum PDF des Vortrags Link zu den Folien des Vortrags

Hör auf deine Nutzer – Qualitätsverbesserung durch leichtgewichtige Analysen

Simon Andre Scherr, Frank Elberzhager and Selina Mayer

Link zum zum PDF des Vortrags Link zu den Folien des Vortrags

Zurück in die Zukuft des Softwaretestens

Andreas Spillner

Link zum zum PDF des Vortrags Link zu den Folien des Vortrags