Fachgruppe Test, Analyse und Verifikation von Software (TAV)

Hochschule Bremen

 

Die Tagung wird unterstützt von

Optimizing Supporter

German Testing Board
imbus AG

Effizient Supporter

QualityMinds GmbH
Sogeti Deutschland GmbH

Controlled Supporter

Berner&Mattner
HEC
MeVis
OHB

Initial Supporter

encoway
iSQI - International Software Quality Institute GmbH
SQS Software Quality Systems AG

Weitere Unterstützer

Wolfgang-Ritter-Stiftung
Hochschule Bremen

Testen in Deutschland vor der Wende - historischer Rückblick auf die Entstehung einer "Testing Community" in der BRD in der Zeit vor der Wiedervereinigung und der Gründung der TAV

  • Die ersten Testwerkzeuge bei Siemens in München
  • Testen im EPOS System des Prof. Lauders an der TU Stuttgart
  • Testen von Mikrogeräten bei Kienzle
  • Das Quelle Software Testsystem
  • Testen auf der IBM-8100 in der Versicherungsindustrie
  • Die ACM Tagung "Qualitätssicherung" an der Bundeswehrhochschule 1983
  • Testen mit dem Tool SoftTest auf dem IBM-Mainframe
  • Die Forschungsarbeit von Peter Liggesmeyer in Bochum
  • Die Uni Bremen wird zum Testforschungszentrum der BRD

Harry Sneed

Testen damals und heute: Was hat sich in 25 Jahren (nicht) geändert?

Die gute Nachricht: Es wird immer noch getestet, und wenn man die Welt der Digitalisierung oder Industrie 4.0 verfolgt, wird der Bedarf für systematisches Testen in der Zukunft eher größer denn geringer. Einige Aspekte haben einen anderen Stellenwert bekommen: wenn früher die Funktionalität, Richtigkeit, und Robustheit im Vordergrund des Testens stand, sind heute bzw. insbesondere auch in der Zukunft zusätzliche Qualitätsmerkmale wie Sicherheit, Usability oder Response time gefragt. Dafür müssen dann auch geeignete Methoden, Verfahren und Werkzeuge bereit stehen, aber die sind bzw. werden bei Apps halt andere sein als bei klassischen Back-Office Systemen. Und - Gott sei Dank - haben die Tester heute - wie damals - eine große Zukunft.

Rudolf van Megen

Das Internet der Dinge aus Test-Sicht

Mit dem Internet der Dinge (Internet of Things, IoT) erhalten die Elemente der realen Welt digitale Abbilder und lassen sich über die digitale Welt verketten. Nach Gartner werden im Jahr 2015 4.9 Milliarden „Dinge“ miteinander verbunden sein, im Jahr 2020 werden es 25 Milliarden sein. Neben der Digitalisierung tritt so die Vernetzung immer mehr in den Vordergrund: Die digitale Vernetzung bezeichnet die durchgehende und durchgängige Verknüpfung der realen Welt mit der digitalen Welt. Dazu gehören die digitale Erfassung, Abbildung und/oder Modellbildung der realen Welt sowie die Vernetzung dieser Informationen. Dies ermöglicht eine zeitnahe Beobachtung, Auswertung und/oder Steuerung der realen Welt mithilfe von digitalen (Teil-)Automatismen.

Viele dieser IoT-Systeme sind sicherheitskritisch (Safety, Security und datenschutzrelevant), agieren unter Umständen in harschen, unzuverlässigen Umgebungen, hochdynamischen Konfigurationen und unter ressourcenbeschränkten Randbedingungen. Zudem werden bisher geschlossene Systeme geöffnet und flexibel zu Systemen-von-Systemen verbunden, so dass das Qualitätsmanagement vor neuen Anforderungen steht. So ist eine nachweislich gesicherte Ende-zu-Ende-Qualität für die Funktionalität, Interoperabilität, Robustheit, Sicherheit und Vertrauenswürdigkeit nötig, da sich IoT-Systeme zu Teilen kritischer Infrastrukturen entwickelt haben; sie sind beispielsweise untrennbar mit der Energieversorgung im Rahmen von Smart Grids und virtuellen Kraftwerken verknüpft.

Dieser Vortrag gibt eine Einschätzung zu Arten von IoT-Systemen und ihren Qualitätsanforderungen. Diese wird dem Stand in Wissenschaft und Technik bei Prüfmethoden und -werkzeugen gegenübergestellt. Insbesondere geht es hier um Ansätze zum Risiko-basierten Testen, zur automatisierten Testgenerierung und -ausführung als auch zur Virtualisierung von Test- und Simulationsumgebungen.

Prof. Dr.-Ing. Ina Schieferdecker, Fraunhofer FOKUS/TU Berlin

»Test or Die« – Testen als Grundstein für ein Startup

John Lasseter von Pixar hat gesagt “quality is the best business plan”. Das bekannteste Mittel um die Qualität zu analysieren ist Testen. Sowohl Qualität als auch Testen ist ein zentraler Baustein der agilen Softwareentwicklung sowie agiler Organisationen. Ende 2012 habe ich als passionierter Tester eine agile Organisation Namens QualityMinds gegründet. Seit damals hilft mir und vielen Quality Minds, die analytische Denkweise eines Testers, täglich eine Vision zu realisieren. Erstaunlicherweise helfen uns viele Praktiken aus der agilen Softwareentwicklung und dem Testing beim Aufbau eines innovativen Startups. Wie sowas im täglichen Leben funktioniert und warum Testen als Lebenseinstellung sinnvoll ist zeigt diese Keynote. Happy testing!

Dr. Michael Mlynarski, QualityMinds

The Future of Testing

  • Wie stellen wir uns die Zukunft des Softwaretestens vor?
  • Wie und was wird im Jahr 2041 getestet werden?
  • Brauchen wir Test, Analyse und Verifikation dann überhaupt noch?
  • Welche Szenarien halten die TAV Teilnehmer für denkbar?

Tilo Linz, imbus

Testing Cloud Services

The introduction of cloud computing has changed the playing field. Testing needs to evolve and innovate to address the newly introduced risks. What are the key testing factors and with what measures can we tackle the risks? The focus of testing cloud services is not only on implementation, but broadens to selection and more and more to testing in production. How to detect “Cloudy” risks and how to mitigate these?

Martin Pol, polteq, Niederlande

Vom Softwaretest zu sicheren Cyber-Physical Systems: Herausforderungen und Lösungsansätze

Die zunehmende Vernetzung von Systemen in Kombination mit einem hohen Grad an Autonomie führt zu heterogenen Cyber-Physischen Systemen, die bestimmte Kombinationen von Eigenschaften - z.B. Sicherheit und Verfügbarkeit - besitzen müssen. Es ist abzusehen, dass diese Eigenschaften nicht mehr zufriedenstellend zur Entwicklungszeit abgesichert werden können. Stattdessen wird es erforderlich sein,

Qualitätssicherung während der Laufzeit autonom durch die Systeme selbst vorzunehmen. Der Vortrag stellt entsprechende Ansätze vor und diskutiert diese.

Prof. Dr.-Ing. Peter Liggesmeyer, TU Kaiserslautern, GI-Präsident

Security und die Digitalisierung - Probleme und Herausforderungen der neuen Welt

Die Digitalisierung beeinflusst alle Bereiche des täglichen Lebens. Stichworte wie Industrie 4.0, Big Data und Smart-Home sind in aller Munde. Die Folge ist eine zunehmende Vernetzung von verschiedensten Systemen (Software und Hardware) von unterschiedlichen Herstellern über das Internet. Fällt ein System durch einen Softwarefehler aus, werden unmittelbar die abhängigen Systeme beeinträchtigt. Die Folgen von Fehlern lassen sich in dieser vernetzten Welt kaum noch abschätzen. Daraus entstehen völlig neue Anforderungen an das Qualitätsmanagement und im speziellen die Security. Die Angriffsfläche digitaler Industrieanlagen, komplexer Softwaresysteme und Smart-Homes ist enorm. Security kann in diesem Zusammenhang nicht als Produkt aufgefasst werden, sondern muss als Prozess verstanden werden, der sämtliche Bereiche der Lösungs- und Produktentwicklung betrifft.

Henning Ziegler, HEC

Vollständiges modell-basiertes Testen in der Praxis

Vollständige Teststrategien können bei Gültigkeit bestimmter Hypothesen über den Testling jede Abweichung zum gegebenen Referenzmodell und zugehöriger Konformitätsrelation aufdecken. Während diese Verfahren schon immer aus theoretischer Sicht interessant waren, wurden sie häufig als untauglich für die Praxis eingestuft, weil die Anzahl der erforderlichen Testfälle nicht mit akzeptablem Aufwand durchführbar seien. In diesem Vortrag berichten wir über praktische Anwendungen vollständiger Verfahren, die zu vertretbar großen Testsuiten führen, sobald man sie mit Äquivalenzklassenstrategien verbinden kann. Wir skizzieren, unter welchen Hypothesen die Äquivalenzklassenbildung die Vollständigkeit des ursprünglichen Verfahrens erhält. Weiterhin wird erläutert, warum die neuen Strategien auch dann noch überlegene Teststärke besitzen, wenn der Testling nicht alle Hypothesen für die Vollständigkeit erfüllt. Es werden Anwendungsbeispiele aus der Bahn- und Automobildomäne präsentiert. Das beschriebene Verfahren wurde von Verified Systems International GmbH im Testwerkzeug RT-Tester implementiert. Hierfür erhielt Verified Systems 2015 die „Runner-up Trophy" des Innovation Radar Innovation Price, der von der EU-Forschungskommission vergeben wird.

Prof. Dr. Jan Peleska, Universität Bremen, Verified

Software-Qualität – zwischen hohem Ziel und hohler Floskel

„Qualität“ ist eines der Wörter, die in Zusammenhang mit Software sehr gern ge- und missbraucht werden. Meist hören wir es als Anforderung an Prozess und Produkt oder als Versprechen der Software-Lieferanten. Zwischen dem Einsatz als wohlklingendem Schlagwort und einer Quantifizierung, die aus erlebter Qualität eine tote Metrik macht, bleibt nur ein schmaler Grat.

Der Vortrag klärt den vielschichtigen Begriff und wendet sich zuletzt der Frage zu, wie denn die professionellen Hüter der Software-Qualität mit ihrem Schützling umgehen.

Prof. Dr. Jochen Ludewig, Universität Stuttgart