Nachdem ich in den letzten Jahren den Sommerurlaub immer in anderen Ländern verbracht habe, war dieses Jahr
mal Urlaub im eigenen Land angesagt. Ich bin mit Freunden
an die Nordseeküste gefahren. Das war wunderschön.
ich denke mal, dass ich im nächsten Jahr wieder
Urlaub in Deutschland mache werde.
Wie denkt ihr über einen Urlaub in Deutschland? Ist das für euch eine Alternative zum Auslandsurlaub?