Deutsche Filme haben oftmals keinen allzu guten Ruf und gelten schlechter als Hollywood-Filme - doch weit gefehlt.
Es gibt zahlreiche deutsche Filme, die wirklich sehenswert sind und auch international große Anerkennung bekamen. In der Bildergalerie stellen wir euch einige deutsche Filme vor, die ihr unbedingt gesehen haben solltet.