Sie sind hier: Startseite > Lexikon > Der Versicherungsvertrag

Der Versicherungsvertrag

Der Versicherungsvertrag bildet die Grundlage für das Geschäftsverhältnis von Versichertem und Versicherung. Es handelt sich um einen Vertrag des Bürgerlichen Rechts, der sowohl auf dem Bürgerlichen Gesetzbuch, als auch auf den Richtlinien des Versicherungsvertragsgesetzes basiert.
Der Versicherungsvertrag regelt die Pflichten und Rechte beide Parteien und nennt die zu zahlende Prämie, wobei das Versicherungsunternehmen nicht verpflichtet ist, jedem Antrag auch stattzugeben.

nach oben