LIRE DANS UP’ : CRISPR : Révolution dans l’histoire humaine ou méga bombe à retardement ?
Mutation, épimutation : de quoi parle-t-on ?
Une mutation est couramment définie comme une modification de l’information génétique contenue dans un organisme, que ce soit sous forme d’ADN ou d’ARN. Les mutations sont héréditaires. Elles peuvent être « silencieuses », c’est-à-dire n’avoir aucune implication dans le métabolisme de l’organisme. Elles peuvent aussi affecter l’expression d’un ou plusieurs gènes, modifiant le métabolisme.
Les épimutations appartiennent à la famille des mutations affectant l’expression d’une séquence génétique mais qui ne sont pas dues à une modification de la séquence génétique elle-même. Elles peuvent par exemple être dues à un changement de la composition chimique de briques de base de l’ADN, les nucléotides.
Préparation des cellules à transformer
La simple mise en culture de cellules induit des mutations
La vectorisation, enfin…
Le rapport provisoire du CS du HCB silencieux sur ces mutations
Sélectionner et régénérer les cellules « modifiées » n’est pas sans effet
La théorie à la base du rétrocroisement
Les limites de la théorie
Le séquençage et les outils informatiques associés ? Tout sauf un gage de certitude !
Le 7 avril, lors de l’audition organisée par l’Office parlementaire sur l’évaluation des choix scientifiques et techniques (OPECST), André Choulika, PDG de Cellectis, affirmait à propos des effets hors-cible « reséquencer intégralement [le génome des plantes], c’est vachement important […] parce que dans l’approbation, on vous redemande la séquence intégrale ». Sauf que, à bien y regarder, les résultats de séquençage obtenus sont loin d’une fiabilité absolue.
Le séquençage dit de « nouvelle génération », est aujourd’hui relativement peu cher et rapide. Mais plusieurs « problèmes » émaillent sa mise en œuvre, la lecture et l’utilisation des résultats.
Tout d’abord, plusieurs étapes du séquençage lui-même « parasitent » la fiabilité du résultat final. Il faut savoir extraire correctement l’ADN, le découper en morceaux puis séquencer ces derniers à l’aide de diverses plateformes et méthodes. Or, ces plateformes et méthodes sont assez différentes les unes des autres, tant en termes de limites que de fiabilité de résultats [14].
Il faut ensuite lire ces résultats en tentant de remettre bout à bout les séquences lues pour reconstituer le génome en entier. Puis, les séquences obtenues sont comparées avec d’autres considérées comme « de référence » et stockées dans des bases de données qui contiennent déjà elles-mêmes des erreurs [15].
Autant d’étapes qui introduisent une importante imprécision dans les résultats finaux de détection d’effets non intentionnels et donc d’évaluation des risques, les incertitudes quant aux séquences augmentant avec des génomes polyploïdes ou aux nombreuses séquences répétées [16]. Sans compter qu’en bout de course, les mutations repérées peuvent ne pas s’avérer de la même importance biologique [17]…
De nombreux articles résument les difficultés rencontrées à chaque étape, comparent les méthodes, plateformes [18] et logiciels associés [19], discutent de normes de référence (« gold standards ») et normes à mettre en place pour fiabiliser le processus complet [20]. Bref, comme le soulignent ces auteurs, autant de techniques et d’étapes qui sont en cours d’amélioration car non parvenues à maturité, en pleine évolution et nécessitant donc nombre de vérifications pour des évaluations au cas par cas.
Selon de nombreux chercheurs, savoir faire face à l’accumulation de très nombreux résultats (un de ces fameux « big data »), dont certains avec de multiples erreurs, et les utiliser avec rigueur est un des défis de la biologie moléculaire actuelle. D’ailleurs, devant le scepticisme soulevé face à tout résultat de séquençage, les demandes minimales des relecteurs d’articles scientifiques sont telles que de plus en plus de chercheurs sont maintenant obligés de présenter des résultats de séquençages de plus longues séquences pour assurer du sérieux de leurs résultats bruts [21].