Kreditinstitut

Unter einem Kreditinstitut wird ein Unternehmen verstanden, welches mit der notwendigen Erlaubnis Bankgeschäfte führen darf. Gängig ist auch der Begriff Geldinstitut, da Geldgeschäfte im gewerblichen Umfang betrieben werden. Dabei kann es sich um eine staatliche Bank oder aber auch um eine private Bank handeln.

Kreditinstitute sind auf den Bereich der Kreditvergabe spezialisiert und gesetzlich berechtigt diese auszugeben. In der Bundesrepublik Deutschland liegt die Rechtsgrundlage für Kreditinstitute bei dem Kreditwesensgesetz und der Europäischen Richtlinie zur Kreditabsicherung Basel II.

Ist ein Kunde an einem Kredit interessiert, sollte dieser mehrere Angebote von verschiedenen Kreditinstitutionen vergleichen. Es ist üblich, dass sich die Konditionen für einen Kredit, je nach Kreditinstitut, erheblich unterscheiden können. Daher sollte jeder, der sich für einen Kredit interessiert, einen Kreditvergleich durchführen.

Zurück zum Kreditlexikon