Imposture
Comment les industriels utilisent la science comme un instrument de propagande
Par (8 juillet 2013)
Études biaisées, pseudo-expertises, financements occultes : les industriels ont entrepris dès les années 50 de manipuler la science à leur profit. Inaugurées par les géants de la cigarette, les techniques de détournement de la science sont aujourd’hui utilisées par les producteurs de pesticides ou les climato-sceptiques. Le déclin des abeilles est ainsi devenu un « mystère » et le changement climatique « relatif ». Des stratégies décryptées par Stéphane Foucart, journaliste scientifique, dans son ouvrage La fabrique du mensonge, comment les industriels nous mentent et nous mettent en danger. Entretien.
Basta ! : Les industriels ont choisi de tordre la science, dites-vous, pour contrer ce qui pourrait entraver leurs activités. Par exemple les révélations sur les effets sanitaires désastreux de certains produits. Comment s’y prennent-ils ?
Stéphane Foucart : La technique « d’utilisation de la science » a été théorisée par John Hill, un grand communicant américain. Les industriels de la cigarette l’ont appelé au secours en 1953, au moment où sont publiés les premiers travaux scientifiques sur le lien entre cigarette et cancer. Suite à une réunion de crise [1], John Hill rédige un petit mémo, dans lequel il dit en substance : « La science est un outil très puissant, dans lequel les gens ont confiance. On ne peut pas l’attaquer frontalement. Il faut procéder autrement. En fait, il faut faire de la science, l’orienter, la mettre à notre main ». John Hill propose notamment la création d’un organe commun aux géants de la cigarette, pour financer la recherche académique, menée au sein de laboratoires universitaires par exemple. Des centaines de millions de dollars seront injectés dans la recherche via cet organe. Pour financer des études qui concluent à l’absence de danger du tabac, mais pas seulement. Ils ont par exemple beaucoup financé la recherche en génétique fonctionnelle, qui décortique les mécanismes moléculaires dans le déclenchement des maladies.
Ce type de recherche est bénéfique pour les industriels : les origines environnementales des maladies, et notamment du cancer, sont « oubliées » et occultées...
Robert Proctor, historien des sciences américain, a passé beaucoup de temps à éplucher les fameux « tobacco documents », ces millions de documents de l’industrie du tabac, rendus publics par la justice – messages internes, rapports confidentiels et comptes rendus de recherche [2]. Les cigarettiers américains avaient compris que chaque discipline scientifique produit une façon de voir le monde. Et qu’ils avaient intérêt à influencer certains points de vue plutôt que d’autres. Quand quelqu’un tombe malade, on peut se demander à quoi il a été confronté dans son environnement, ou bien s’intéresser aux mécanismes moléculaires qui ont permis à la maladie de se déclencher. L’intérêt des cigarettiers se situaient plutôt du côté des mécanismes moléculaires : ils ont donc fortement subventionné la génétique fonctionnelle.
Cela signifie en substance que, si vous tombez malade, c’est parce que quelque chose, en vous, est en cause. L’environnement est évacué. Cette façon de voir les choses est encore très présente. On entend très régulièrement parler du gène de prédisposition au cancer du sein. Ou du gène de prédisposition à l’obésité. Lesquels jouent sans doute un rôle dans les pathologies évoquées. Mais cela occulte complètement les autres paramètres, notamment les causes environnementales des grandes maladies métaboliques. Une stratégie redécouverte et reprise au fil des années par de nombreux industriels, confrontés à des publications scientifiques embarrassantes pour eux. Pour les industriels, la science est aussi un instrument de propagande.
Le comité permanent amiante, en France, a-t-il adopté la même stratégie ?
Il y a plusieurs façons d’instrumentaliser la science : on peut financer la recherche, comme le font les industriels du tabac ou de l’agrochimie. Mais on peut aussi influencer l’expertise de façon à tordre la perception d’une problématique par les décideurs et le grand public. Le comité permanent amiante (CPA), qui a dirigé la politique sanitaire française sur cette question, s’est positionné sur cette seconde stratégie. Il n’a jamais injecté d’argent dans des études mais s’est posé en expert. Il n’y avait pourtant aucun scientifique spécialiste des effets sanitaires concernant les expositions aux faibles doses d’amiante dans cette assemblée. Elle était surtout composée de représentants de l’industrie et de hauts fonctionnaires. Créé au début des années 80, le CPA a entretenu cette idée selon laquelle on pouvait faire un usage contrôlé de l’amiante. Il était consulté par les politiques et les journalistes, et rendait des avis contraires à ce que l’on savait. La première étude épidémiologique mettant en évidence des effets sanitaires de l’amiante sur des personnes ne travaillant pas au contact de la fibre date de 1960. En 1980, on savait donc depuis 20 ans que même à des doses « réduites », l’amiante provoquait des mésothéliomes. Le CPA rendait en réalité des pseudo-expertises. Qui ont permis aux industriels de commercialiser de l’amiante jusqu’en 1996 !
En 2013, on a aussi affaire aux climato-sceptiques...
Aux États-Unis, les climato-sceptiques procèdent de la même façon que le CPA en son temps. Le Groupe d’experts intergouvernemental sur l’évolution du climat (Giec) est très ouvert, il travaille avec l’ensemble de la communauté scientifique. On est dans un processus de production de connaissances très démocratique et très transparent. Les experts d’Exxon Mobil, de Greenpeace ou du gouvernement chinois peuvent s’exprimer et questionner les données avancées sur des sujets qui leur tiennent à cœur. Le processus est très difficile à biaiser. Les climato-sceptiques ont donc entrepris d’enfumer les médias et les politiques. Aux États-Unis, il y a des think tanks qui sont ouvertement financés par les industriels. Des membres de ces cercles de réflexion écrivent des livres et deviennent experts, « légitimes » sur le sujet, sans même avoir aucune compétence effective. Ils sont constamment sollicités par les médias. Il y a aussi des manœuvres visant à intimider les chercheurs qui publient des résultats dérangeants. Avec des campagnes diffamatoires qui peuvent être menées. Tout cela jette un trouble sur la réalité.
Cela participe de « la fabrication du doute », que vous pointez comme partie intégrante de ce détournement de la science par les industriels à leur seul profit ?
Le montage de controverses qui retardent la prise de conscience est effectivement une technique éprouvée, et largement utilisée. Cela passe notamment par le fait de biaiser le corpus scientifique. Comment les industriels procèdent-ils ? En attaquant les études qui leur sont défavorables. Dans le monde scientifique, pour voir si ça marche, si c’est solide, on reproduit une expérience dont les résultats semblent peu convaincants. Si les doutes se confirment, on fait ensuite des commentaires techniques, qui accablent le collègue. Un peu sur le modèle du droit de réponse dans la presse. C’est un processus courant et normal de la démarche scientifique. Les industriels connaissent cette démarche de scepticisme. Ils cherchent donc à attaquer les études qui ne les arrangent pas. Le problème, c’est qu’ils n’avancent pas toujours à visage découvert.
C’est notamment le cas pour les études qui mettent en évidence l’impact des pesticides sur les abeilles...
En 2012, par exemple, la revue Science a publié les résultats d’une étude menée par des chercheurs de l’Institut national de la recherche agronomique (Inra) sur les effets des néonicotinoïdes (classe d’insecticides, ndlr) sur les abeilles. Avec une exposition à des doses extraordinairement faibles (de l’ordre du milliardième de gramme) de thiaméthoxame, la molécule active du Cruiser commercialisé par Syngenta, le taux de retour des abeilles à la ruche était largement diminué. L’étude mettait donc clairement en évidence que les insecticides participent de l’hécatombe d’abeilles que l’on observe depuis une quinzaine d’années. Quelques mois plus tard, l’étude a été attaquée par un chercheur via un commentaire technique, bâti sur un argumentaire douteux, publié dans Science. Mais l’auteur de ce commentaire a occulté ses liens avec Syngenta, qui finançait son laboratoire, à partir du jour de la publication de ce commentaire. Autre fait troublant : la rédaction d’un communiqué de presse, pour publiciser le dit commentaire. Ce qui est très rare ! La ficelle est un peu grosse. Et le procédé malhonnête. Mais ce qui va rester, c’est que tous les scientifiques ne sont pas d’accord, et que les effets du thiaméthoxame sont finalement sujet à caution. Dès lors, pourquoi s’inquiéter ?
Les industriels ont par ailleurs la mainmise sur l’évaluation de leurs produits, notamment dans le domaine de l’agrochimie...
L’industrie agrochimique maîtrise l’ensemble de la chaîne règlementaire des produits qu’elle vend. En Europe, tout le processus au terme duquel on autorise la mise sur le marché des produits est élaboré par les industriels eux-mêmes. Ce sont les industriels qui évaluent les produits qu’ils souhaitent mettre sur le marché. Et c’est sur la base des résultats qu’ils publient que l’on autorise, ou pas, la vente du produit ! Alors même que l’on sait que l’origine d’un financement a un impact sur les données auxquelles va aboutir une expertise scientifique : c’est ce que l’on appelle le Funding effect. C’est une énormité qu’un enfant de 8 ans est capable de comprendre ! De plus, les industriels mettent en œuvre eux-mêmes les tests et, pire, ils définissent le protocole expérimental qui va être utilisé. Or, la définition du protocole est évidemment essentielle, elle définit l’acuité d’une étude. Si je décide que mon test va avoir lieu sur un espace d’un m2 avec deux abeilles et que l’une d’elles ne rentre pas à la ruche suite à une exposition au produit dont je demande la mise sur le marché, je pourrai conclure que mon produit ne pose aucun problème. Une seule abeille ne représente pas une quantité « inquiétante ». Mais la méthode manquerait de sérieux...
Qu’en est-il des protocoles d’évaluation des pesticides déversées par milliers de tonnes dans les campagnes ?
Les protocoles mis en place par les industriels au niveau européen pour obtenir leurs autorisation de mise sur le marché (AMM) sont dits « aveugles ». Quand on s’y intéresse, cela paraît évident. Par exemple, les tests en laboratoire ne cherchent à déterminer que la dose létale aigüe des substances : on cherche à savoir quelle quantité de produit est capable de tuer une abeille immédiatement ou presque. On ne cherche pas à connaître les effets de très faibles expositions répétées sur l’insecte. Autre exemple : les tests en plein champ consistent à placer une très petite colonie devant 2500 m2 de champ traité… Ce qui représente moins de 0,5% de la surface visitée par une abeille autour de sa ruche. Cela signifie que l’exposition au produit pendant le test est potentiellement plusieurs milliers de fois inférieure à ce qu’elle peut être dans la nature, en zones de grandes cultures notamment.
L’autorité européenne de sécurité des aliments (Efsa), saisie par la Commission européenne à ce propos, a convenu en avril 2012 que les protocoles étaient totalement inadéquats. On le sait depuis au moins 10 ans, mais il fallait que ce soit une autorité officielle qui le dise pour que cela ait un effet. Dans la foulée de cette déclaration, l’Efsa a été à nouveau saisie, avec l’obligation de re-tester les produits incriminés. En l’occurrence les néonicotinoïdes [3]. Cela a entraîné des avis négatifs et la suspension de la commercialisation de ces produits, à partir de décembre 2013. L’Efsa réfléchit maintenant à la mise en place de nouveaux protocoles de tests. Mais les industriels ont gagné plus de 10 ans, au cours desquels ils ont pu écouler quantités de produits.
Les responsables politiques ne pourraient-ils pas accélérer les choses ? Et apporter un peu de clarté ?
La littérature scientifique nous donne beaucoup d’informations sur des conséquences sanitaires graves liées aux perturbateurs endocriniens : pourquoi l’incidence du cancer du sein a-t-elle triplé depuis l’après-guerre ? Pourquoi celle du cancer de la prostate a-t-elle quintuplé ? Pourquoi le nombre de cancers de la thyroïde ou du testicule ne cesse d’augmenter ? L’agence nationale française de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) vient de publier une expertise collective sur le Bisphénol A, une molécule omniprésente, utilisée dans nombre de plastiques ou de résines alimentaires. On peut y lire qu‘environ un quart des femmes enceintes sont probablement exposées à des doses de bisphénol A induisant un risque accru de cancer du sein pour leur fœtus ! C’est une information incroyable ! D’autant plus que les dangers reconnus par les experts sont souvent en deçà du risque réel.
Le bisphénol A appartient à une catégorie de molécules – les perturbateurs endocriniens – dont les chercheurs savent qu’ils ont des effets délétères à des doses plus faibles que celles considérées comme sans danger par la plupart des agences de sécurité sanitaire. Il reste énormément de choses que l’on ignore, sur les mécanismes d’imprégnation des populations et la toxicité de ces molécules. Mais on dispose tout de même, pour le bisphénol A, de plus de 300 études qui documentent ces effets à faibles doses, pour les cancers, la métabolisation des graisses et des sucres, l’expression de certains gènes dans le cerveau,... La puissance publique peut attendre qu’on ait tout compris sur les faibles doses pour agir. Ou bien se référer à cet énorme corpus de connaissances. En France, sur le bisphénol A, le politique a été un accélérateur, puisque la proposition de loi sur l’interdiction de ce produit a été déposée par le député Gérard Bapt (PS), avant que le rapport des experts ne soit rendu. Mais ce genre de démarche est hélas rare.
Propos recueillis par Nolwenn Weiler
Photo : source.
A lire : La fabrique du mensonge : Comment les industriels manipulent la science et nous mettent en danger. Stéphane Foucart. Editions Denoël, 17 euros.
Stéphane Foucart : La technique « d’utilisation de la science » a été théorisée par John Hill, un grand communicant américain. Les industriels de la cigarette l’ont appelé au secours en 1953, au moment où sont publiés les premiers travaux scientifiques sur le lien entre cigarette et cancer. Suite à une réunion de crise [1], John Hill rédige un petit mémo, dans lequel il dit en substance : « La science est un outil très puissant, dans lequel les gens ont confiance. On ne peut pas l’attaquer frontalement. Il faut procéder autrement. En fait, il faut faire de la science, l’orienter, la mettre à notre main ». John Hill propose notamment la création d’un organe commun aux géants de la cigarette, pour financer la recherche académique, menée au sein de laboratoires universitaires par exemple. Des centaines de millions de dollars seront injectés dans la recherche via cet organe. Pour financer des études qui concluent à l’absence de danger du tabac, mais pas seulement. Ils ont par exemple beaucoup financé la recherche en génétique fonctionnelle, qui décortique les mécanismes moléculaires dans le déclenchement des maladies.
Ce type de recherche est bénéfique pour les industriels : les origines environnementales des maladies, et notamment du cancer, sont « oubliées » et occultées...
Robert Proctor, historien des sciences américain, a passé beaucoup de temps à éplucher les fameux « tobacco documents », ces millions de documents de l’industrie du tabac, rendus publics par la justice – messages internes, rapports confidentiels et comptes rendus de recherche [2]. Les cigarettiers américains avaient compris que chaque discipline scientifique produit une façon de voir le monde. Et qu’ils avaient intérêt à influencer certains points de vue plutôt que d’autres. Quand quelqu’un tombe malade, on peut se demander à quoi il a été confronté dans son environnement, ou bien s’intéresser aux mécanismes moléculaires qui ont permis à la maladie de se déclencher. L’intérêt des cigarettiers se situaient plutôt du côté des mécanismes moléculaires : ils ont donc fortement subventionné la génétique fonctionnelle.
Cela signifie en substance que, si vous tombez malade, c’est parce que quelque chose, en vous, est en cause. L’environnement est évacué. Cette façon de voir les choses est encore très présente. On entend très régulièrement parler du gène de prédisposition au cancer du sein. Ou du gène de prédisposition à l’obésité. Lesquels jouent sans doute un rôle dans les pathologies évoquées. Mais cela occulte complètement les autres paramètres, notamment les causes environnementales des grandes maladies métaboliques. Une stratégie redécouverte et reprise au fil des années par de nombreux industriels, confrontés à des publications scientifiques embarrassantes pour eux. Pour les industriels, la science est aussi un instrument de propagande.
Le comité permanent amiante, en France, a-t-il adopté la même stratégie ?
Il y a plusieurs façons d’instrumentaliser la science : on peut financer la recherche, comme le font les industriels du tabac ou de l’agrochimie. Mais on peut aussi influencer l’expertise de façon à tordre la perception d’une problématique par les décideurs et le grand public. Le comité permanent amiante (CPA), qui a dirigé la politique sanitaire française sur cette question, s’est positionné sur cette seconde stratégie. Il n’a jamais injecté d’argent dans des études mais s’est posé en expert. Il n’y avait pourtant aucun scientifique spécialiste des effets sanitaires concernant les expositions aux faibles doses d’amiante dans cette assemblée. Elle était surtout composée de représentants de l’industrie et de hauts fonctionnaires. Créé au début des années 80, le CPA a entretenu cette idée selon laquelle on pouvait faire un usage contrôlé de l’amiante. Il était consulté par les politiques et les journalistes, et rendait des avis contraires à ce que l’on savait. La première étude épidémiologique mettant en évidence des effets sanitaires de l’amiante sur des personnes ne travaillant pas au contact de la fibre date de 1960. En 1980, on savait donc depuis 20 ans que même à des doses « réduites », l’amiante provoquait des mésothéliomes. Le CPA rendait en réalité des pseudo-expertises. Qui ont permis aux industriels de commercialiser de l’amiante jusqu’en 1996 !
En 2013, on a aussi affaire aux climato-sceptiques...
Aux États-Unis, les climato-sceptiques procèdent de la même façon que le CPA en son temps. Le Groupe d’experts intergouvernemental sur l’évolution du climat (Giec) est très ouvert, il travaille avec l’ensemble de la communauté scientifique. On est dans un processus de production de connaissances très démocratique et très transparent. Les experts d’Exxon Mobil, de Greenpeace ou du gouvernement chinois peuvent s’exprimer et questionner les données avancées sur des sujets qui leur tiennent à cœur. Le processus est très difficile à biaiser. Les climato-sceptiques ont donc entrepris d’enfumer les médias et les politiques. Aux États-Unis, il y a des think tanks qui sont ouvertement financés par les industriels. Des membres de ces cercles de réflexion écrivent des livres et deviennent experts, « légitimes » sur le sujet, sans même avoir aucune compétence effective. Ils sont constamment sollicités par les médias. Il y a aussi des manœuvres visant à intimider les chercheurs qui publient des résultats dérangeants. Avec des campagnes diffamatoires qui peuvent être menées. Tout cela jette un trouble sur la réalité.
Cela participe de « la fabrication du doute », que vous pointez comme partie intégrante de ce détournement de la science par les industriels à leur seul profit ?
Le montage de controverses qui retardent la prise de conscience est effectivement une technique éprouvée, et largement utilisée. Cela passe notamment par le fait de biaiser le corpus scientifique. Comment les industriels procèdent-ils ? En attaquant les études qui leur sont défavorables. Dans le monde scientifique, pour voir si ça marche, si c’est solide, on reproduit une expérience dont les résultats semblent peu convaincants. Si les doutes se confirment, on fait ensuite des commentaires techniques, qui accablent le collègue. Un peu sur le modèle du droit de réponse dans la presse. C’est un processus courant et normal de la démarche scientifique. Les industriels connaissent cette démarche de scepticisme. Ils cherchent donc à attaquer les études qui ne les arrangent pas. Le problème, c’est qu’ils n’avancent pas toujours à visage découvert.
C’est notamment le cas pour les études qui mettent en évidence l’impact des pesticides sur les abeilles...
En 2012, par exemple, la revue Science a publié les résultats d’une étude menée par des chercheurs de l’Institut national de la recherche agronomique (Inra) sur les effets des néonicotinoïdes (classe d’insecticides, ndlr) sur les abeilles. Avec une exposition à des doses extraordinairement faibles (de l’ordre du milliardième de gramme) de thiaméthoxame, la molécule active du Cruiser commercialisé par Syngenta, le taux de retour des abeilles à la ruche était largement diminué. L’étude mettait donc clairement en évidence que les insecticides participent de l’hécatombe d’abeilles que l’on observe depuis une quinzaine d’années. Quelques mois plus tard, l’étude a été attaquée par un chercheur via un commentaire technique, bâti sur un argumentaire douteux, publié dans Science. Mais l’auteur de ce commentaire a occulté ses liens avec Syngenta, qui finançait son laboratoire, à partir du jour de la publication de ce commentaire. Autre fait troublant : la rédaction d’un communiqué de presse, pour publiciser le dit commentaire. Ce qui est très rare ! La ficelle est un peu grosse. Et le procédé malhonnête. Mais ce qui va rester, c’est que tous les scientifiques ne sont pas d’accord, et que les effets du thiaméthoxame sont finalement sujet à caution. Dès lors, pourquoi s’inquiéter ?
Les industriels ont par ailleurs la mainmise sur l’évaluation de leurs produits, notamment dans le domaine de l’agrochimie...
L’industrie agrochimique maîtrise l’ensemble de la chaîne règlementaire des produits qu’elle vend. En Europe, tout le processus au terme duquel on autorise la mise sur le marché des produits est élaboré par les industriels eux-mêmes. Ce sont les industriels qui évaluent les produits qu’ils souhaitent mettre sur le marché. Et c’est sur la base des résultats qu’ils publient que l’on autorise, ou pas, la vente du produit ! Alors même que l’on sait que l’origine d’un financement a un impact sur les données auxquelles va aboutir une expertise scientifique : c’est ce que l’on appelle le Funding effect. C’est une énormité qu’un enfant de 8 ans est capable de comprendre ! De plus, les industriels mettent en œuvre eux-mêmes les tests et, pire, ils définissent le protocole expérimental qui va être utilisé. Or, la définition du protocole est évidemment essentielle, elle définit l’acuité d’une étude. Si je décide que mon test va avoir lieu sur un espace d’un m2 avec deux abeilles et que l’une d’elles ne rentre pas à la ruche suite à une exposition au produit dont je demande la mise sur le marché, je pourrai conclure que mon produit ne pose aucun problème. Une seule abeille ne représente pas une quantité « inquiétante ». Mais la méthode manquerait de sérieux...
Qu’en est-il des protocoles d’évaluation des pesticides déversées par milliers de tonnes dans les campagnes ?
Les protocoles mis en place par les industriels au niveau européen pour obtenir leurs autorisation de mise sur le marché (AMM) sont dits « aveugles ». Quand on s’y intéresse, cela paraît évident. Par exemple, les tests en laboratoire ne cherchent à déterminer que la dose létale aigüe des substances : on cherche à savoir quelle quantité de produit est capable de tuer une abeille immédiatement ou presque. On ne cherche pas à connaître les effets de très faibles expositions répétées sur l’insecte. Autre exemple : les tests en plein champ consistent à placer une très petite colonie devant 2500 m2 de champ traité… Ce qui représente moins de 0,5% de la surface visitée par une abeille autour de sa ruche. Cela signifie que l’exposition au produit pendant le test est potentiellement plusieurs milliers de fois inférieure à ce qu’elle peut être dans la nature, en zones de grandes cultures notamment.
L’autorité européenne de sécurité des aliments (Efsa), saisie par la Commission européenne à ce propos, a convenu en avril 2012 que les protocoles étaient totalement inadéquats. On le sait depuis au moins 10 ans, mais il fallait que ce soit une autorité officielle qui le dise pour que cela ait un effet. Dans la foulée de cette déclaration, l’Efsa a été à nouveau saisie, avec l’obligation de re-tester les produits incriminés. En l’occurrence les néonicotinoïdes [3]. Cela a entraîné des avis négatifs et la suspension de la commercialisation de ces produits, à partir de décembre 2013. L’Efsa réfléchit maintenant à la mise en place de nouveaux protocoles de tests. Mais les industriels ont gagné plus de 10 ans, au cours desquels ils ont pu écouler quantités de produits.
Les responsables politiques ne pourraient-ils pas accélérer les choses ? Et apporter un peu de clarté ?
La littérature scientifique nous donne beaucoup d’informations sur des conséquences sanitaires graves liées aux perturbateurs endocriniens : pourquoi l’incidence du cancer du sein a-t-elle triplé depuis l’après-guerre ? Pourquoi celle du cancer de la prostate a-t-elle quintuplé ? Pourquoi le nombre de cancers de la thyroïde ou du testicule ne cesse d’augmenter ? L’agence nationale française de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) vient de publier une expertise collective sur le Bisphénol A, une molécule omniprésente, utilisée dans nombre de plastiques ou de résines alimentaires. On peut y lire qu‘environ un quart des femmes enceintes sont probablement exposées à des doses de bisphénol A induisant un risque accru de cancer du sein pour leur fœtus ! C’est une information incroyable ! D’autant plus que les dangers reconnus par les experts sont souvent en deçà du risque réel.
Le bisphénol A appartient à une catégorie de molécules – les perturbateurs endocriniens – dont les chercheurs savent qu’ils ont des effets délétères à des doses plus faibles que celles considérées comme sans danger par la plupart des agences de sécurité sanitaire. Il reste énormément de choses que l’on ignore, sur les mécanismes d’imprégnation des populations et la toxicité de ces molécules. Mais on dispose tout de même, pour le bisphénol A, de plus de 300 études qui documentent ces effets à faibles doses, pour les cancers, la métabolisation des graisses et des sucres, l’expression de certains gènes dans le cerveau,... La puissance publique peut attendre qu’on ait tout compris sur les faibles doses pour agir. Ou bien se référer à cet énorme corpus de connaissances. En France, sur le bisphénol A, le politique a été un accélérateur, puisque la proposition de loi sur l’interdiction de ce produit a été déposée par le député Gérard Bapt (PS), avant que le rapport des experts ne soit rendu. Mais ce genre de démarche est hélas rare.
Propos recueillis par Nolwenn Weiler
Photo : source.
A lire : La fabrique du mensonge : Comment les industriels manipulent la science et nous mettent en danger. Stéphane Foucart. Editions Denoël, 17 euros.
Notes
[1] Nous connaissons la date et la teneur de cette réunion grâce aux « tobacco documents », déclassifiés en 1998.
[2] Ces documents ont été rendus publics, grâce au Master Settlement Agreement, qui clôt les poursuites engagées par 46 États américains contre les cigarettiers, en 1998. Lire Les conspirateurs du tabaci, Le monde, 25/02/2012.
[3] Ces nouvelles générations d’insecticides, qui se présentent sous forme de granules ou en enrobage de semences, sont conçues par Bayer, Syngenta ou BASF pour pénétrer au cœur du système vasculaire de la plante. Laquelle sécrète ensuite le toxique tout au long de sa croissance.