Sie sind hier: Startseite > Lexikon > Versicherungsvertrag

Versicherungsvertrag

Ein Versicherungsvertrag wird zwischen dem Versicherungsnehmer und dem Versicherungsunternehmen geschlossen.

Es handelt es sich um einen Vertrag des Bürgerlichen Rechts, der sich am Bürgerlichen Gesetzbuch und dem Versicherungsvertragsgesetz orientieren muss. Fester Bestandteil eines Versicherungsvertrags müssen die allgemeinen Versicherungs- sowie die Tarifbedingungen sein.
Nimmt das Versicherungsunternehmen den Antrag an – was ihm freisteht –, ist es dazu verpflichtet, die für Versicherungsfall vereinbarten Leistungen zu erbringen.

nach oben