• Votre actu
    • Guide

    Bayer France est une entreprise qui s'articule autour des sciences de la vie, avec un accent sur la santé humaine et végétale. Le site internet de la filiale française met en avant ses engagements en matière d'hygiène intime, de bien-être et de développement durable.

    Il propose un contenu informatif sur ses produits, des conseils pour le quotidien et des nouvelles relatives à ses actions environnementales. En outre, Bayer France souligne son implication dans l'égalité professionnelle et les défis de l'agroécologie.

    Bayer France