notiespartano.com
Sabes lo que es tener los pies sobre la tierra
Tener los pies sobre la tierra significa vivir la realidad, no hacerse expectativas ni ilusiones, es decir no ser iluso. En la actualidad, es indispensable
Karolay Orta