C’est un sujet délicat. Ma femme et moi ne sommes pas d’accord là-dessus, parce que de son point de vue, ça a permis d’éradiquer pleins de maladies ça en fait vraiment reculer d’autres etc. Et j’imagine que pour certaines ça doit être vrai mais quelles sont les sources sures, sérieuses, et indépendantes sur le sujet ? Le fait de dire que les enfants n’en tombent plus malades parce qu’ils sont vaccinés ok, mais est-ce valable pour toutes les maladies concernées ? Certes fatales chez les nourrissons ou les jeunes enfants, certaines maladies sont sûrement virulentes, mais un "vaccin" est-il absolument nécessaire ?
Bref, personnellement je suis méfiant, mais j’ai du mal à ignorer les "faits" historiques...