Frage stellen
Felix_of_the_dark10

Winterreifen sind Pflicht, oder? Und was passiert, wenn man ohne erwischt wird?

Frage beantworten Frage Nummer 36638 Frage melden

Antworten (8)
Der_Denis
Und das fragst du jetzt, wo der Winter vorbei ist?
Melden
Tommitom
So weit ich weiß, gibt es keine "Winterreifenpflicht". Es hat sich halt bewährt von ca. Oktober bis ca. April Winterreifen zu haben. Aber es gibt die Pflicht zur Witterung passende Reifen am Auto zu haben. D.h. wenn es im Januar sehr mild ist, darfst Du auch mit Sommerreifen fahren. D.h. im Umkehrschluss aber, sollte (wenn auch sehr unwahrscheinlich) im August Schnee auf der Straße liegen, musst Du mit Winterreifen fahren. Bußgeld kannst Du im Bußgeldkatalog nachlesen. Im Falle eines Unfalls wird die Versicherung sehr wahrscheinlich auch Ärger machen.
Melden
serefine
Guantanamo.
Melden
markusb_b3
Ja, klar sind Winterreifen mittlerweile Pflicht und diese gesetzliche Regelung war in meinen Augen allerhöchste Zeit. Es gab viel zu viele Unfälle mit Fahrzeugen, die nicht wintertauglich bereift waren. Durch diese Maßnahme wird die Gefahr sehr eingedämmt.
Melden
bh_roth
Die Antwort auf die Frage ist: Nichts!
Melden
AxtHammber23
Ja sind sie. Seit kurzer Zeit sogar laut Gesetz. Aber vorher konnte die Versicherung bei unangemessener Bereifung schon die Leistung verweigern bzw. wurde einem Versicherungsnehmer ohne Winterreifen bei einem Umfall eine Mitschuld gegeben. Jetzt gibt es zum Schaden noch ein Knöllchen dazu. Aber Allwetterreifen könnten hier reichen.
Melden
bh_roth
Ich wiederhole noch mal, weil die Frage so gestellt ist: Es passiert nichts, weil man gar nicht "erwischt" wird bei etwas, was verboten ist. Ich könnte den ganzen Winter über mit Sommerreifen herumgurken, wenn es keine winterlichen Verhältnisse geben sollte, und niemand könnte mich dafür bestrafen. Und wenn es schneien sollte, kann ich das Fahrzeug auf der Strasse parken, mit den Sommerreifen, und wieder würde nichts passieren.
Dass es besser wäre, im Winter Winterreifen auf dem Fahrzeug zu haben, weil es Pflicht ist bei winterlichen Verhältnissen, und weil die Versicherung bei einem Unfall bei eben diesen Verhältnissen die Leistung verweigern könnte, ist eigentlich selbstverständlich, war aber nicht die Frage.
Melden
netter_fahrer
Nein, es gilt auch weiterhin in Deutschland KEINE Winterreifenpflicht!
Es gibt das Verbot, bei Schnee, Matsch, Glätte mit "ungeeigneten" Reifen, also Sommerreifen zu fahren - dafür gibt es ein Bußgeld.
Wer im Winter auf trockener Straße mit Sommerreifen fährt, dem passiert gar nichts.
Wer bei Schnee & Eis das Auto stehen lässt, auch nicht.
Siehe hier, ADAC-Info.
Melden