Es gibt Situationen, in den wir erwarten, dass ein Test scheitert.
Anstatt den Test zu überspringen, markieren wir ihn mit @pytest.mark.xfail
.
Es mag zunächst wenig intuitiv sein, einen Test auszuführen, der erwartungsgemäss scheitern soll. Wenn der Test sowieso fehlschlägt, kann ich den Test ja einfach vorerst überspringen.
Betrachten wir einmal folgende Situation in einem Projekt:
Customer
zu programmieren. Customer
noch nicht lauffähig ist, markiert Bert die Tests mit @pytest.mark.skip
.Customer
teilweise fertig gestellt.Customer
nicht ausgeführt und PyTest meldet keine Fehler.Customer
.Im dümmsten Fall glauben Andrea und Raphael, dass die Applikation korrekt läuft, da ja keine Fehler bei den Tests erkannt wurden.
Nehmen wir nun an, Raphael hätte die Tests mit @pytest.mark.xfail
markiert:
unexpectedly passing (XPASS)
melden.XPASS
melden.
Dadurch merkt Raphael automatisch, dass die Klasse Customer
ganz oder teilweise umgesetzt ist.
@pytest.mark.xfail def test_one(): ... @pytest.mark.xfail(reason='this is expected to fail') def test_two(): ... @pytest.mark.xfail(condition=sys.version_info < (3, 7)) def test_three(): ...
Wir können pytest.xfail
auch innerhalb einer Testfunktion aufrufen.
Im Gegensatz zum Dekorator wird dabei jedoch die Ausführung der Funktion abgebrochen und keine weiteren Befehle ausgeführt.
Dadurch ist diese Variante weniger geeignet.
def test_read_entry(monkeypatch, capsys, attributes): if attributes not in ['BASIS', 'ERWEITERT']: pytest.xfail('Test kann erst durchgeführt werden, wenn die Attribute der Klasse "Entry" definiert sind')
Beim Testen müssen wir immer auch die korrekte Verarbeitung von Ausnahmefällen prüfen. Daher schreiben wir Unittests, die bewusst eine Exception im Programm auslösen sollen.
def test_illegal_value(): with pytest.raises(ValueError): account.balance = '3ex'
In diesem Beispiel geben wir einen formal falschen Wert für den Kontostand an.
Sofern die Methode einen ValueError
auslöst, gilt der Test als erfüllt.