Du bist nicht angemeldet.

1

Donnerstag, 10. November 2011, 09:55

Urlaub in Deutschland?

Nachdem ich in den letzten Jahren den Sommerurlaub immer in anderen Ländern verbracht habe, war dieses Jahr
mal Urlaub im eigenen Land angesagt. Ich bin mit Freunden an die Nordseeküste gefahren. Das war wunderschön.
ich denke mal, dass ich im nächsten Jahr wieder Urlaub in Deutschland mache werde.
Wie denkt ihr über einen Urlaub in Deutschland? Ist das für euch eine Alternative zum Auslandsurlaub?