WWF Deutschland

Wer ist eigentlich der WWF?

Der WWF ist eine große Natur- und Umweltschutzorganisation, die sich seit über 50 Jahren für den Schutz wilder Tiere und der Natur einsetzt.