Deutschland im Porträt

xwhatsappmailcopy-link

Geschichte des Fußballs in Deutschland:

Im Vergleich zum Mutterland des Fußballs England musste der Sport mit dem runden Leder hierzulande viel länger um gesellschaftliche Anerkennung kämpfen. 1874 wollte der Braunschweiger Lehrer Konrad Koch mit dem Fußballspiel dem Bewegungsmangel der Jugend entgegenwirken. Doch gegenüber dem Turnen hatte Fußball lange Zeit einen schweren Stand und wurde noch bis Anfang des 20. Jahrhunderts als "Fußblümmelei" verspottet. Mit Gründung des deutschen Fußball-Bundes am 28. Januar 1900 in Leipzig starte der Fußball seine rasante Entwicklung. Die 1963 gegründete Bundesliga, in der anfangs 16, heute 18 Vereine um die Deutsche Meisterschaft spielen, sorgte für die weitere Professionalisierung des Sports und der Etablierung des Fußballs zur Sportart Nummer 1.

WM-Geschichte:

Star und Trainer: