definicion de turismo

El turismo son todos aquellos viajes que realizamos por el placer mismo de viajar. Se entiende como aquella actividad, que implica viajar, hospedarse o pernoctar, por un tiempo determinado, en un lugar geográfico no habitual al que uno habita. Por ende, realizar turismo, es viajar fuera de la ciudad o del lugar en que vivimos, en busca de descanso, entretención o nuevas experiencias.
El mismo se realiza, tanto dentro del país de uno, como en el extranjero. Muchas naciones prácticamente viven del turismo. Esto se debe, a diversas razones; y no sólo económicas, sino además por las características de los lugares, la atención, la situación hotelera y la hermosura del lugar. Es así, como países como Brasil, México, República Dominicana, Tahití, varios países de Europa y Asia, entre varios otros, tienen al turismo como una de sus principales fuentes de ingreso.
0 Responses