WWF Deutschland

Der WWF

Der WWF ist eine große Natur- und Umweltschutzorganisation, die sich seit über 50 Jahren für den Schutz wilder Tiere und der Natur einsetzt.

Weiterlesen

Zusammenarbeit mit Zoos

Verschiedene Zoos in Deutschland arbeiten mit dem WWF zusammen. Gemeinsam wollen sie bedrohten Arten gleich doppelt helfen: mit mehr Schutz in ihrem Lebensraum und verbesserten Lebensbedingungen im Zoo.

Weiterlesen