LIRE AUSSI DANS UP’ : CRISPR: entre peur et euphorie, la bataille de l’éthique bat son plein
Nous poursuivons notre série d’interviews présentant les enjeux majeurs du FESTIVAL VIVANT dont UP’ Magazine est partenaire. Yves Bertheau s’exprime ici sur la brûlante question des nouvelles techniques d’édition (ou New breeding techniques/ NBT). Démissionnaire du Comité scientifique du Haut Conseil des biotechnologies (HCB), il détaille ici les défis d’une évaluation et d’une traçabilité des « nouveaux OGM » ou produits NBT.
Yves Bertheau est biochimiste et phytopathologiste, directeur de recherche Inra au MNHN . Spécialiste des OGM et de leur traçabilité, il a coordonné un programme européen (Co-Extra) sur la coexistence des cultures OGM et non OGM.
UP’ : Les nouvelles techniques de sélection utilisant notamment la méthode Crispr/cas9 brouillent les frontières entre OGM et non-OGM. Au lieu de greffes génétiques, on opère des « copier-coller » sur le génome comme cela peut se passer naturellement. Pour autant, peut-on considérer le résultat comme naturel ? Est-ce pertinent de continuer à se référer à cela pour dire qu’il n’y a pas de danger ? Peut-on les appeler « nouveaux OGM » ?
Yves Bertheau : La question de la frontière entre OGM et non-OGM nécessite en premier lieu de définir le terme d’OGM. Si, comme l’entendent généralement les biologistes, un OGM résulte d’une modification d’un génome par introduction par l’homme de réactifs spécifiques, alors ceci concerne aussi bien les OGM issus des techniques des années 70 que ceux issus de la majorité des « nouvelles » techniques de modifications des génomes comme les méthodes Crispr. Ces nouvelles techniques constituent une évolution importante dans la gamme des outils d’étude du génome par leur facilité d’usage et leur versatilité, mais n’échappent pas au côté artificiel de leur mise en œuvre par l’homme.
En sus, si par « greffes génétiques », vous entendez insertion de séquences génétiques issues d’espèces non sexuellement reliées à une espèce soumise à manipulation génétique et par « copier-coller », celles de séquences issues d’espèces sexuellement compatibles, il faut rappeler que les méthodes Crispr-Cas permettent l’insertion de n’importe quelle séquence, quelle que soit l’espèce d’origine, qu’elle soit par ailleurs une très proche copie de celle d’origine, partiellement remaniée ou totalement synthétique.
Crispr-Cas fait partie de ces « nouvelles » techniques dites « d’édition », discutées au niveau communautaire, qui constituent en fait un ensemble assez hétérogène dont les points communs sont le désir d’améliorer la précision des méthodes de modification des génomes et de contourner des réglementations OGM actuelles. Par de nombreux aspects, les connaissances mises en avant pour ce point réglementaire relèvent désormais plutôt des décennies passées. C’est ainsi que si l’on considère, par exemple, la greffe entre OGM et non OGM, les connaissances actuelles sur la mobilité des petits ARN non codants et leur capacité à induire de manière héritable des modifications à distance dans tous les tissus, dont les produits consommés, conduisent à classer ces constructions comme des assemblages OGM.
Méfions-nous des simplifications !
Enfin plus généralement, méfions-nous des présentations volontairement sur-simplifiées de ces techniques. Crispr-Cas correspond en fait à un très vaste ensemble de variantes, que ce soit au niveau des ARN, des protéines apportées ou des acides nucléiques codant pour elles, d’expression transitoire ou non, insérés ou pas, elles-mêmes éventuellement combinées avec d’autres techniques en vue de modifications génétiques et épigénétiques. Les innombrables combinaisons possibles rendent impossible toute évaluation a priori.
Pour répondre à votre question, il n’existe donc aucun brouillage de la frontière entre OGM et non-OGM : les organismes issus de ces nouvelles techniques sont bien génétiquement modifiés par l’homme et donc par là même des OGM. La présentation médiatique des technologies à base de Crispr, qui tend à faire passer les produits de ces modifications comme naturels, ne correspond pas à la réalité scientifique et technique de leur utilisation. Cette présentation médiatique focalisée sur la modification voulue à un endroit précis (insertion, délétion, épimutation, réarrangement de séquences issues ou non d’espèces sexuellement compatibles…) oblitère de surcroît – par l’effet réverbère utilisé – de nombreux autres aspects qui font que cet ensemble complexe de techniques participe bien au continuum des techniques de production d’OGM.
Attention effets collatéraux !
En effet, les techniques à base de Crispr-Cas et autres (ZFN, TALEN, RdDM, OdM…), vantées pour leur spécificité de ciblage, induisent aussi de nombreuses modifications hors-cibles (off-targets) en raison de la présence de séquences cibles plus ou moins similaires à de nombreux autres endroits des génomes. En second lieu, les systèmes Crispr-Cas nécessitent, comme les autres techniques de modification du génome, de mettre en contact le génome cible et les réactifs. Les techniques de vectorisation (d’entrée des réactifs) au travers de micro-injections, virus ou bactéries vecteurs, électroporation, bombardement de particules… induisent également de nombreuses mutations et épimutations. Ces mêmes techniques sont utilisées en transgénèse classique, au sens de la directive 2001/18 et rapprochent à nouveau ces nouveaux OGM des anciens.
Enfin, les nombreuses autres techniques connexes, telles que la ‘protoplastisation’, la sélection des cellules transformées, les cultures cellulaires, la régénération des plantes sont toutes communes à la production des OGM, nouveaux ou anciens. Elles sont de même toutes inductrices de mutations et d’épimutations.
Signalons au passage que, tant les nombreuses restrictions d’usage (liées aux tissus, espèces, séquences PAM, différences in vitro et in vivo, faible efficacité…) des nouvelles techniques de modification du génome que celles liées par exemple à la régénération des plantes ne permettent pas de revendiquer des applications généralisées, au contraire de ce qu’on peut souvent lire dans les médias. Ces nouvelles techniques ne sont pas des couteaux suisses universels.
Il est dès lors impossible de parler de résultat naturel sauf à oublier toutes les modifications non intentionnelles du génome et ces restrictions d’usage.
Tenter d’éliminer toutes ces modifications non intentionnelles du reste du génome implique de nombreux rétrocroisements (4 à 14 selon le degré de « propreté » visé) avec au mieux l’espérance d’éliminer 90% de ces modifications non désirées, ce qui laisse pour certaines espèces cultivées des millions de nucléotides non épurés. Ce « nettoyage » suppose également que les modifications non intentionnelles ne soient pas trop proches de traits désirés ou présents sur des portions du génome sujettes à des distorsions de ségrégation. Vouloir s’assurer de la réduction de ces modifications non intentionnelles nécessite également des séquençages de génome dont la fiabilité varie selon les techniques et plateformes de séquençage, les logiciels d’assemblage et de recherches de variants de différents types…
Malgré le degré de précision de la modification ciblée et des améliorations en cours, à la reproductibilité inconnue pour ces dernières, les nouvelles techniques ne paraissent donc pas suffisamment matures. Elles manquent dramatiquement de cadres d’évaluation des risques acceptés et un minimum normés. Ces rapides considérations soulignent que même des « ségrégants négatifs », obtenus par rétrocroisements à partir d’OGM, doivent rester dans le champ d’application de la directive 2001/18.
Des espèces modifiées qu’on ne peut pas assimiler à des espèces « naturelles »
Peut-on dès lors considérer le résultat de ces techniques, et donc des Crispr-Cas, comme naturel ? Non, et ce, à deux titres. D’une part, les techniques ne sont pas aussi maîtrisées que le suggèrent bien des présentations qui en sont faites et elles engendrent de nombreuses mutations et épimutations non intentionnelles, et par là potentiellement des changements de caractéristiques de la plante. D’autre part, le processus de manipulation génétique est évidemment artificiel, le résultat demeure donc artificiel dans le contexte de l’évolution et de l’écologie.
Y-a-t-il danger pour autant ? Ne confondons pas risque et danger. Le premier se réfère à la probabilité de survenue d’effets néfastes tandis que le second se réfère à la qualité intrinsèque des produits considérés. Un produit dangereux issu des nouvelles techniques de modification du génome ne serait soit pas autorisé, soit autorisé dans des conditions restreintes, visant à réduire l’exposition des populations et/ou de l’environnement à ce produit en fonction de leur vulnérabilité. Encore faut-il que la procédure d’évaluation existe pour identifier cette dangerosité.
Découlant de la réponse à la première partie de cette question, différents risques seront à évaluer : ceux dus directement à la modification souhaitée, comme des pléiotropies, et à ses conséquences non intentionnelles sur l’organisme, ceux dus aux méthodes afférentes et d’autres dus à l’accélération de la modification des caractères par l’homme, sans compter les effets environnementaux consécutifs à leur dissémination.
Nous manquons de capacités d’évaluation
Les nouveaux OGM, résultant d’une des « nouvelles » méthodes de modification du génome, doivent donc pouvoir bénéficier d’une étude au cas par cas, comme dans le cas des OGM relevant déjà du champ d’application de la directive 2001/18. La meilleure connaissance scientifique des effets du processus de mutagénèse de cellules végétales en culture amène également à reconsidérer le statut des mutants obtenus in vitro qui sont actuellement exclus du champ d’application de la directive 2001/18.
Toute modification importante, pour ne pas dire violente, du génome, en particulier in vitro, devrait être considérée autant à l’aune de nos connaissances de l’évolution des organismes et des écosystèmes que de celles sur les mécanismes moléculaires. Les connaissances qui s’accumulent quant aux mobilités intra-plante et intra-animale ou au travers de muqueuses intestinales, d’acides nucléiques mobiles inducteurs d’effets épigénétiques, distaux et héritables par exemple au travers des fruits, conduisent à recommander (i) l’application du principe de précaution aux applications commerciales, (ii) au développement de procédures nouvelles d’évaluation des risques et (iii) à tout le moins à des analyses au cas par cas améliorées par rapport aux dossiers OGM actuels.
Comme dans le cas des nanotechnologies, les applications technologiques commerciales ont précédé les capacités d’évaluation des risques. C’est ainsi que l’AESA en est encore à commander en 2016 une revue systématique sur les ARN non codants, qui peuvent être utilisés en combinaison ou non avec les systèmes Crispr, et à lancer des études quant à la possible méthodologie d’évaluation des risques liés à l’épigénétique.
Au-delà des changements de pratiques agricoles induits par les nouveaux traits introduits, les modifications génétiques rapides, radicales et souvent irréversibles doivent être considérées avec prudence, alors que la sélection classique liée la conservation de ressources génétiques constituent encore la meilleure source d’amélioration de la production et d’adaptation aux changements environnementaux. Il est à craindre que les plantes ne constituent un ballon d’essai, pour tester des technologies dont l’application à l’homme est loin d’être acceptable.
Personnellement, j’observe que les mêmes arguments techniques et économiques utilisés ces dernières décennies pour les premiers OGM et pour le clonage animal, servent à défendre cette évolution de techniques, avec toujours :
• la même confusion entre science et applications,
• les mêmes postures de politiques et industriels quant au progrès, à l’innovation et à la compétitivité,
• le même retard entre méthodologies d’évaluation des risques et applications commerciales qui fait que l’AESA a dû ces dernières années repréciser les cadres d’évaluation dont les bonnes approches statistiques,
• les mêmes « effets réverbères » quant à la communication mise en jeu,
• la même volonté de politiques que leur choix a priori soit couvert par un début d’onction scientifique
• et finalement une information biaisée pour les citoyens, profanes…
L’histoire des techniques serait-elle en France un éternel recommencement ?
UP’ : Comment pourrait-on organiser l’évaluation de ces semences génétiquement modifiées ? Le Haut Conseil aux Biotechnologies a été organisé selon 2 collèges : le Comité scientifique et le Comité économique éthique et social, est-ce une bonne idée de séparer les deux types d’analyse ?
YB : L’évaluation de ces semences génétiquement modifiées requiert de nombreux champs d’expertise. Au vu du faible nombre d’experts mobilisables en situations controversées, du temps nécessaire à consacrer à une évaluation de qualité et des moyens contraints – financiers et humains entre autres – en appui, il est évident que les moyens doivent être affectés à une seule structure. Le HCB paraît dès lors le mieux placé au point de vue scientifique, si des moyens supplémentaires lui étaient alloués et si le CSBT , structure nécessaire à l’évaluation post-commercialisation des effets non intentionnels des OGM commercialisés et à la coordination avec d’autres surveillances biologiques du territoire, renaissait de ses cendres, fut-ce au sein de l’ANSES. Ceci sans parler des points de vue éthique, économique et social, puisque le HCB est la seule structure qui permet à ces champs d’être discutés entre porteurs d’intérêts.
Historiquement, l’expérience de la CGB avait permis de constater que l’expertise pratiquée manquait à la fois de moyens – financiers, humains – et d’un cadre adéquat : les associations de consommateurs, de protection de l’environnement, etc., se plaignaient de discussions trop techniques en dehors des préoccupations du public.
L’idée de deux « cercles », traduite au HCB par les deux Comités d’expertise, l’un d’expertise scientifique et l’autre plus général d’expression des courants d’une société démocratique, ce dernier appuyé autant que de besoin par des groupes de travail d’experts ad-hoc, fut avancée par Marie-José Nicoli (UFC-Que Choisir). Elle fut reprise dans la conférence de citoyens de 1998 et le rapport de 1999 de P. Kourilsky et G. Viney sur le principe de précaution. L’ensemble a abouti à la loi de 2008, instaurant HCB et CSBT, dans le droit fil du Grenelle de l’environnement.
Toute innovation technique, toute application des résultats de la recherche, nécessite la prise en compte des désirs et choix de la société, au risque de son rejet. Cette prise en compte devrait éviter certains verrous technologiques, comme par exemple la disparition des semences commerciales non-OGM, et permettre la coexistence de différents modes de vie et de production.
La séparation en deux comités avec des analyses séparées participe donc du débat démocratique, qui se doit d’être transparent, pluraliste et contradictoire, et doit être maintenue. Mais les capacités d’expertise socio-économique, juridique et éthique du CEES devraient pouvoir être plus facilement et plus rapidement appuyées par la création, au fur et à mesure des besoins ressentis, de groupes de travail appropriés. De plus, à l’instar de l’ANSES, un comité de déontologie indépendant devrait être créé. Il permettrait d’éviter les détournements de procédure, favoriser le pluralisme et la transparence, appliquer le règlement intérieur, contrôler les conflits d’intérêts et leur application sans langue de bois, comme le rappelait récemment un groupe de réflexion interne sur la gouvernance.
Utiliser positivement les dissensus
Deux problèmes se posent pourtant, qui nécessitent des aménagements et surtout des formations tant des experts, des porteurs d’intérêts que du personnel du secrétariat du HCB.
La première difficulté est la place concrètement accordée aux dissensus dans le travail d’un comité d’experts et dans ses productions finales. Loin d’affaiblir l’expertise, cet exercice permet au contraire d’approfondir la réflexion et de distinguer clairement ce qui est connu avec un bon degré de certitude de ce qui comporte encore des incertitudes et constitue majoritairement une extrapolation. Dès lors, le CS pourrait ne plus être considéré comme un lieu de controverse opaque et surtout d’influence de lobbies qui fait que nombre d’experts refusent d’y participer tandis que d’autres au contraire s’y investissent, mais plutôt comme porteurs d’intérêts. En fait, posséder une formation de scientifique ne suffit pas pour comprendre que l’évaluation du risque ne consiste pas à tenter de le gérer, prérogative du politique, et que croyances personnelles et relations avec des porteurs d’intérêts ne doivent pas oblitérer l’esprit critique. Les notions de conflits et liens d’intérêt devraient être formellement décrits, afin de bien faire comprendre que ceux-ci ne se résument pas à des financements personnels directs mais recouvrent d’autres formes comme des liens financiers professionnels, des liens institutionnels ou relationnels, des intérêts intellectuels et industriels…
Du côté du CEES que je connais moins, il paraît là aussi nécessaire de former les représentants de porteurs d’intérêts dont certains, à l’évidence, paraissent plus présents pour affirmer des positions de principe, forcément divergentes, que pour rechercher des solutions innovantes.
UP’ : La Commission européenne doit statuer prochainement sur ces « Nouveaux OGM ». Faudrait-il revoir la directive 2001-18 ? Comment pensez-vous souhaitable d’organiser la réglementation ?
YB : La Commission européenne devait effectivement livrer fin 2015 son interprétation en droit. Reportée par la suite à mi 2016 puis à fin 2016, la date de remise de cette interprétation a récemment été repoussée sine die, apparemment en raison de pressions très fortes.
Mais la question de revoir la directive 2001/18 n’avait jamais été mise sur la table, du moins par les pouvoirs publics, ce qui peut se comprendre car cette directive est assez claire : tout est question d’interprétation.
Revoir la directive 2001/18 pour ces nouveaux OGM relèverait donc d’une décision politique, que les mêmes politiques, beaucoup ayant déjà leur opinion arrêtée quant à l’intérêt de ces techniques, demandent aux scientifiques d’oindre d’un vernis scientifique d’acceptabilité.
Fondamentalement, la directive 2001/18 et les directives et règlements en découlant ne paraissent pas nécessiter de modifications drastiques. Etant donné les modifications non intentionnelles dues aux techniques connexes, des effets hors-cibles des nouvelles techniques de modifications du génome, et des limites des méthodes de détection de ces effets ou de leur suppression, il convient d’examiner attentivement chacune des variantes et combinaisons de ces techniques de modification du génome puis leur résultat. Dès lors, le cadre général des OGM doit continuer à s’appliquer tant aux techniques qu’aux produits issus de ces techniques, que ce soit pour l’évaluation des risques que pour les autres éléments (traçabilité, coexistence, culture versus importation…). Ces nouveaux OGM, y compris les ségrégants négatifs ou les produits issus de greffes entre OGM et non-OGM, avec leurs ARN mobiles induisant des modifications héritables dans les autres parties, ou les techniques RdDM et OdM , devraient donc entrer dans le champ d’application de la directive 2001/18.
S’aligner sur la définition des OGM du Protocole de Carthagène
De façon à éviter qu’à l’avenir des questionnements similaires apparaissent à chaque évolution des techniques, il serait par contre utile que soit réaffirmé le principe que toutes les modifications in vitro aboutissent à des OGM auxquelles cette directive doit être appliquée. Ce serait se mettre en conformité avec la définition des organismes vivants modifiés, fournie par le Protocole de Carthagène que l’Union européenne a ratifié en 2000 !
Pratiquement, un effort important doit être aussi entrepris pour rattraper rapidement le retard pris sur les procédures d’évaluation du risque et de surveillance des effets non intentionnels après commercialisation. Comment évaluer l’effet des ARN non codants mobiles ? Plus généralement, comment évaluer les risques associés aux modifications épigénétiques ? Quelles procédures consensuelles de prédiction des off-targets ? Quels outils (génomes de référence…) développer pour détecter ces off-targets ou assembler correctement les séquences issues des séquençages à haut débit ? Voici quelques-uns des obstacles à lever, au travers d’un minimum de normalisation, pour une bonne évaluation des risques inhérents à ces nouvelles techniques incluant les Crispr-Cas.
Dès lors, les structures existantes comme le HCB paraissent les mieux adaptées à évaluer ces produits bénéficiant ainsi d’une capitalisation des acquis et des compétences, dans une période de moyens contraints alors que les experts manquent. Dans un même souci de mutualisation des moyens et compétences, la structure de surveillance biologique du territoire post-commercialisation pourrait s’adjoindre aux activités de phytovigilance de l’ANSES. Le transfert de l’évaluation vers d’autres structures entrainerait un retard considérable dans le développement des procédures, la mise en place des instances, le tout avec un accroissement des coûts d’évaluation sans compter des risques forts de contestation sociétale.
Propos recueillis par
S’abonner
Connexion
1 Commentaire
Les plus anciens
Les plus récents
Le plus de votes
Inline Feedbacks
View all comments