• Votre actu
    • Guide

    Terre de France est une enseigne qui célèbre le savoir-faire hexagonal à travers une sélection de produits fabriqués en France. Destinée aux hommes et aux femmes, la gamme s'étend du textile à la bijouterie, en passant par la décoration et les articles d'hygiène.

    Chaque achat contribue à une cause sociale, puisque la totalité des bénéfices est reversée à des agriculteurs en difficulté, des familles de militaires et des écoles rurales, soulignant ainsi l'engagement de la marque envers le soutien local et l'éducation.

    Terre de France