La vision en pleine révolution

 

Pr José-Alain SAHEL, Chef de service au Centre hospitalier national d’ophtalmologie des Quinze-Vingt (Paris), Directeur de l’Institut de la Vision

Depuis un demi-siècle, l’ophtalmologie connaît une véritable révolution thérapeutique et technologique fondée sur des avancées scientifiques majeures. Les progrès spectaculaires que nous connaissons aujourd’hui sont directement le fruit d’une alliance puissante entre science, médecine et technologie, en particulier grâce à la miniaturisation des dispositifs et des techniques chirurgicaux. Dans le même temps, grâce à l’utilisation du laser, des ultrasons ou encore des implants l’ophtalmologie fait partie des disciplines qui ont quasiment presque totalement basculé dans la chirurgie ambulatoire, la plupart des patients pouvant ressortir de l’hôpital peu d’heures après l’intervention.

Cataracte ou glaucome (les pathologies de l’œil les plus courantes) trouvent maintenant sur leur route une armada de techniques d’intervention et de dispositifs médicaux qui font reculer toujours plus le nombre de cas de patients non traitables. Et de plus en plus de pathologies comme les déformations de la cornée ou encore le kératocône peuvent être traitées avec succès avec des techniques de greffes partielles, des cellules souches, ou photochimiques. Les pathologies rétiniennes, dont seules celles relevant de la microchirurgie étaient traitables, sont en passe de connaître une révolution grâce aux anticorps monoclonaux, à la thérapie génique, l’injection de cellules souches, les prothèses et l’optogénétique Ces biotechnologies bénéficieront de la robotisation de la chirurgie et du couplage a des dispositifs implantables (implants rétiniens, délivrance prolongée de médicaments,)

Reste, pour les industriels du dispositif médical spécialisés en ophtalmologie, à se rapprocher encore plus de la biomécanique et du fonctionnement de l’œil dans sa globalité, en particulier dans le cadre de la convergence entre biothérapies et dispositifs. Et là encore, parions que les succès à venir seront le fruit d’une collaboration étroite entre chercheurs, praticiens et industriels, comme la plupart de ceux qui sont racontés et décrits dans ce livret qui synthétise le formidable cycle d’innovation que nous avons la chance de vivre. Ces innovations trouveront sa place grâce aux patients qui contribueront à leur validation, parfois au terme d’une phase de réhabilitation qui requerra leur pleine coopération.

Comme cet autre organe considéré comme noble qu’est le cœur, l’œil a toujours fasciné les hommes. Il a fallu des millénaires à l’ophtalmologie pour gagner ses lettres de noblesse et devenir la discipline d’excellence qu’elle est aujourd’hui. N’est-ce pas, en effet, un défi fou que de rendre la vue à ceux qui l’ont perdue ? C’est pourtant celui que cherchent à relever les professionnels de l’ophtalmologie, médecins comme industriels.

 

« Œil pour œil, dent pour dent », « une bonne conscience est l’œil de Dieu », « un bon avis vaut un œil dans la main », « l’honneur est comme l’œil : on ne joue pas avec lui » … Dresser la liste des proverbes et citations faisant référence à l’œil et, par extension, à la vue et la vision, serait peine perdue tant ils sont nombreux quelles que soient les époques et les cultures. C’est que l’ophtalmologie se concentre sur l’un des organes les plus délicats et précieux du corps humain. Dans les plus anciennes civilisations déjà, l’œil revêt certes un caractère particulièrement sacré, voire religieux puisque souvent considéré comme le miroir de l’âme, mais n’en concentre pas moins l’attention des plus éminents scientifiques (Inde, Égypte, Grèce, Empire romain etc.). Au-delà du seul mais néanmoins important aspect esthétique, c’est la question de la vision que se posent déjà les chirurgiens de l’époque ou, plus exactement, de l’altération de celle-ci. Ainsi, la chirurgie de la cataracte est considérée comme l’une des plus anciennes puisque le Papyrus de Carlsberg, qui daterait du IIe millénaire avant notre ère, en fait déjà mention. Plus tard, dans l’Antiquité, plusieurs médecins, parmi lesquels Galien reste l’un des plus illustres, se penchent sur l’œil, son anatomie et certaines de ses pathologies. C’est également à cette époque que sont menées les premières études sur la réfraction de la lumière, l’un des éléments essentiels à la définition de l’ophtalmologie.

Vers une reconnaissance de la discipline

Au Moyen-Âge, l’œil continue de fasciner. La plupart des opérations, réalisées bien entendu sans anesthésie ni asepsie, sont déléguées aux barbiers. Pour l’anecdote, cette époque voit également l’élection du pape Jean XXI, médecin de son état et qui publie le « Thesaurus pauperum ». Le huitième chapitre, sorte de traité thérapeutique oculaire, est consacré aux connaissances ophtalmologiques de l’époque. La fin du Moyen-Âge puis la Renaissance apportent leur lot d’innovations avec l’invention du microscope (XVIe siècle), le perfectionnement des techniques de dissection, l’émergence des lunettes et, bien entendu, les colossales contributions anatomiques et scientifiques de génies tels que Léonard de Vinci ou Copernic pour ne citer qu’eux. En ophtalmologie, on retient de cette époque les noms de Pierre Franco, dont l’apport sera essentiel pour appréhender de la vitrectomie, de Felix Platter ou encore de Jacques Guillemeau. Mais, en France, il faut attendre le XIXe siècle pour que l’ophtalmologie s’émancipe de la chirurgie générale et devienne une discipline à part entière reconnue comme telle. C’est d’ailleurs à cette époque (1880) qu’est créée, sous l’impulsion du Docteur Fieuzal et de Léon Gambetta, la Clinique des Quinze-Vingts, à Paris, qui devient très vite « le centre français de soins oculaires le plus important » (« Les débuts de la clinique ophtalmologique des Quinze-Vingts », J.-P. Bailliart). Les progrès simultanés réalisés en matière d’anesthésie et de microscope favorisent également grandement l’essor de la chirurgie ophtalmologique. Pour autant, les efforts se concentrent surtout sur les pathologies les plus visibles, telles celles de la cataracte. A cette époque, en effet, les techniques d’extraction du cristallin prennent un nouveau tournant en s’appuyant sur les travaux effectués notamment par Jacques Daviel au siècle précédent.

À la pointe de la technologie

Mais ce sont incontestablement la deuxième moitié du XXe siècle et la première décennie du XXIe qui marquent l’avènement de l’ophtalmologie moderne, comme le confirme le Pr Gilles Renard, Directeur scientifique de la Société française d’ophtalmologie (SFO) : « L’ophtalmologie a été littéralement révolutionnée au cours des cinquante dernières années. Dans cette discipline, des dispositifs innovants sont inventés tous les deux ans ! Depuis les années soixante-dix, en effet, nous sommes entrés dans l’ère du microscopique. Nous avons réussi à pénétrer et à soigner le plus petit organe du corps humain. » Grâce aux progrès réalisés en matière de dispositifs et de techniques, il est en effet possible de soigner de plus en plus de pathologies oculaires de manière mini-invasive, voire sans ouvrir l’œil (laser, ultrasons), là où il fallait autrefois l’inciser sur toute sa largeur ou même l’extraire. Plus encore, les interventions ne nécessitent plus, désormais, l’immobilisation du patient durant plusieurs semaines ou plusieurs jours. « L’ophtalmologie est l’une des plus belles illustrations du progrès médical de ces dernières années. Ses innovations sont liées à celles réalisées en matière d’imagerie et de microchirurgie », corrobore le Pr Béatrice Cochener, chef du service d’ophtalmologie du CHU de Brest et Présidente de l’Académie Française d’Ophtalmologie. Et d’énumérer les innovations qui ont été décisives : « Laser dont les indications (cataracte, réfraction, cornée) et les fonctionnalités (imagerie et topographie, aberromètre) sont toujours plus vastes ; implants notamment multifocaux aujourd’hui ; phacoémulsification ; ultrasons ; imagerie intraoculaire avec l’OCT… C’est la conjugaison de tous ces progrès qui permet à notre spécialité d’être ce qu’elle est aujourd’hui. Reste, demain, à pouvoir encore mieux prédire et simuler de façon à affiner toujours plus l’arbre décisionnel en matière de choix de chirurgie tout en se rapprochant toujours plus de la biomécanique et du fonctionnement intrinsèque de l’œil. »

 

 

L’œil : composition et fonctionnement   

L’Académie nationale de médecine définit l’œil comme « l’organe de la vision constitué par le bulbe de l’œil et les divers milieux qu’il renferme ». Le bulbe de l’œil est « la partie fondamentale de l’appareil de la vision, chargée de la réception et de la transmission des impressions lumineuses ». Schématiquement, l’œil est composé d’une partie antérieure qui comprend la cornée, l’humeur aqueuse et le cristallin. Elle permet de focaliser les images sur la rétine. La partie postérieure traite l’information inhérente aux images projetées sur elle et envoie ces informations au cerveau. Elle est composée de la rétine et du nerf optique. A noter que 90 % du volume de l’œil est occupé par le corps vitré, une substance transparente et gélatineuse.

Voir mieux pour rendre la vue

 

Loin d’être un dispositif anecdotique, le microscope est l’outil qui a rendu possibles tous les progrès en ophtalmologie en permettant de mieux voir et donc de mieux connaître l’œil.

 

Les microscopes ophtalmiques permettent de procéder aux examens dits de routine et de diagnostiquer d’éventuelles anomalies comme celles de la cornée. On parle alors de biomicroscope ou, plus souvent de lampe à fente. D’autres, plus perfectionnés, sont dits opératoires et sont utilisés lors des différentes chirurgies que l’on pratique sur un œil malade (rétine, cornée etc.).

Littéralement, selon la définition du Centre national de ressources textuelles et lexiacles (CNRTL), le microscope est « un instrument d’optique à très fort grossissement qui permet d’observer des éléments, objets, organismes invisibles à l’œil nu, composé d’un tube renfermant plusieurs lentilles donnant l’image virtuelle d’un objet éclairé par transparence ». Le biomicroscope (ou lampe à fente) est un microscope binoculaire présentant plusieurs grossissements. Il est doté d’un système d’éclairage particulier constitué d’une fente lumineuse (dont on peut varier l’orientation et la dimension) et qui permet d’effectuer une coupe optique des différentes structures du segment antérieur. On peut également réaliser un examen du fond d’œil à l’aide de la lampe à fente en utilisant une lentille ou un verre spécifique : cela permet de mener une analyse très fine des détails du fond d’œil. Comme dans beaucoup d’autres spécialités médicales, les microscopes opératoires utilisés en ophtalmologie disposent, en outre de leur capacité grossissante, de fonctionnalités permettant de répondre aux exigences de l’intervention : lumière, maniabilité, précision, ergonomie voire imagerie etc.

On attribue l’invention du premier dispositif à un fabricant de lunettes néerlandais à la fin du XVIe siècle. Cette innovation ne doit rien au hasard puisque c’est également à cette époque que le port des lunettes commença à se répandre, entraînant un vif intérêt pour l’optique et ses dispositifs, comme le rappelle la Société américaine de physique (American Physical Society). Le microscope en question était toutefois très sommaire. Divers chercheurs s’appliquèrent, dans les siècles suivants, à faire évoluer le dispositif pour le rendre plus précis, plus maniable et plus performant.

Éclairage optimal et fonctionnalités augmentées

En ophtalmologie, « si les microscopes modernes existent depuis plus d’un siècle, ils ne connurent pas vraiment d’évolution majeure pendant longtemps. Mais certaines innovations les ont réellement perfectionnés au cours des trente dernières années. Il s’agit des efforts portés sur la lumière, notamment avec l’éclairage coaxial », constate le Pr Gilles Renard, Directeur scientifique de la Société française d’ophtalmologie. Cet éclairage, qui projette la lumière dans l’axe d’observation de l’opérateur, fut mis au point il y a une vingtaine d’années. Il s’agit d’une innovation majeure pour certaines chirurgies, dont celles de la cataracte ou de la rétine, comme l’explique le Pr Ramin Tadayoni, chef du service ophtalmologie de l’Hôpital Lariboisière, à Paris : « Dans les années quatre-vingt et quatre-vingt-dix, une évolution importante a été de permettre d’accéder au fond de l’œil, et plus seulement au segment antérieur. » La gestion de la lumière (qualité, source, intensité, stabilité, précision) a en effet concentré les efforts ces dernières décennies, passant d’une source extérieure (lampe à fente) à des sources intégrées aux machines. Leur nature a également évolué, le xénon ayant succédé à l’halogène avant de laisser de plus en plus place au LED afin de d’augmenter la durabilité, maitriser le spectre, réduire au maximum la phototoxicité et préserver les rétines du patient et du chirurgien. Ces avancées, ajoutées à la miniaturisation des dispositifs, ont permis l’entrée de l’ophtalmologie dans l’ère de la microchirurgie. Enfin, une dernière révolution est l’émergence de la réalité augmentée, laquelle a permis d’intégrer des données techniques supplémentaires au microscope. L’idée est de concentrer toutes les données du patient dans l’assistant opératoire qu’est le microscope. Certains microscopes proposent aussi des outils de diagnostic intégrés telles que la tomographie en cohérence optique (OCT) ou des systèmes d’imagerie numérique censés élargir le champ des informations à la disposition du chirurgien.

 

 

Les Instruments de diagnostic, à la base de toute décision

Les instruments permettant de procéder au diagnostic ophtalmologique sont extrêmement variés selon le type d’examen : mesure de l’acuité visuelle et de la force des verres de lunettes, mesure de la pression intraoculaire (tonomètre), examen du champ visuel (important pour détecter un glaucome), biométrie (sorte de prise d’identité de l’œil qui est importante notamment dans la chirurgie de la cataracte puisqu’elle va déterminer la taille de l’implant) etc. Un autre dispositif permet de procéder à un scanner de la rétine pour en analyser la structure et repérer les éventuels défauts. Cette tomographie par cohérence optique (OCT, de son nom anglais) a connu, ces dernières années, d’importantes évolutions, notamment en matière de rapidité du balayage des ondes, puisque l’on peut même aujourd’hui reconstituer le flux sanguin rétinien ! Non invasive, elle se pratique désormais en cabinet (sans besoin de la compléter parfois par une injection de fluorescéine comme auparavant) et ne présente aucun risque pour le patient. Toutes ces innovations ont optimisé les flux et gagné en sécurité, en prédictibilité et en temps. Autant d’exigences fondamentales aujourd’hui tant en établissement qu’en cabinet.

Rendre la vue à qui l’a perdue

 

Rendre la vue à un aveugle… La proposition ressemble à un miracle et relevait de l’utopie il y a encore quelques années. Depuis, sous certaines conditions très précises, notamment physiologiques, c’est devenu une réalité plus que jamais envisageable.

 

La rétine est une « fine membrane tapissant la surface interne du globe oculaire. C’est un tissu neurosensoriel. Il est capable de capter les rayons lumineux et de transmettre les informations visuelles au système nerveux central. Issue des neuroblastes, c’est une structure nerveuse constituée de neurones et de cellules gliales (…). Elle est caractérisée par la présence de cellules hautement spécialisées, les photorécepteurs qui réagissent aux signaux lumineux » (définition de la Formation nantaise et recherche en ophtalmologie, FNRO). Avec l’âge (Dégénérescence maculaire liée à l’âge, DMLA) ou en raison d’un facteur génétique (rétinite pigmentaire), la rétine peut être altérée, entraînant une baisse de la perception visuelle avec des zones aveugles. Elle peut aboutir, à terme, à une perte complète de la vue. La prothèse rétinienne – ou rétine artificielle – a pour but de compenser cette perte. Toutefois, le nerf optique doit être actif : « La prothèse rétinienne ne peut rendre la vue qu’aux patients qui ont perdu leurs photorécepteurs mais chez qui il reste des neurones rétiniens », confirme Serge Picaud, neurobiologiste à l’Institut de la Vision, qui mène les recherches en France sur la rétine artificielle avec le Pr José-Alain Sahel. Par conséquent, selon les dispositifs et les patients, le degré de récupération peut varier.

L’idée est de réactiver la rétine résiduelle grâce à un dispositif implantable et actif qui provoque une neurostimulation à la surface de la rétine pour restaurer les sensations visuelles. Il existe aujourd’hui deux types d’implants d’égale efficacité. « Le premier est un implant placé à la surface de la rétine en contact avec les cellules ganglionnaires, décrit Serge Picaud. Il interagit avec une caméra fixée à une paire de lunettes qui transmet les images à un processeur placé dans la poche ou à la ceinture du patient. Ce boîtier convertit les signaux lumineux en signaux électriques, les traite puis les transmet à un récepteur placé sur l’œil. Enfin, celui-ci les communique grâce à un fil à l’implant composé de 60 voire de 150 électrodes. » L’autre dispositif comporte 1 500 électrodes (et autant de diodes sensibles à la lumière) et est placé sous la rétine à la place des cellules photoréceptrices. Les diodes activent directement les électrodes sans passer par un dispositif intermédiaire.

Si les recherches sur la rétine artificielle menées conjointement par plusieurs pays, dont les États-Unis et la France, débutèrent dès 1991, c’est en 2002 que naquit un implant inspiré de l’implant cochléaire, fonctionnant avec un dispositif interne et un boîtier externe. « Les patients percevaient des signaux lumineux. Certains étaient même déjà capables de saisir des objets bien que le dispositif ne comportât alors que 16 électrodes », explique Serge Picaud. Les dispositifs proposés étaient multiples puisque certains étaient également posés autour du nerf optique. Une approche très innovante, développée par le Professeur Chow, fut d’intégrer des photorécepteurs électriques (ou photodiodes) dans la puce électronique sous la rétine. Malheu­reusement, lors des premiers tests, « le courant sortant de ces photodiodes était insuffisant », rapporte Serge Picaud. Au début des années deux-mille, le Pr Eberhart Zrenner, Directeur de l’Institut de recherche ophtalmique et responsable du Centre d’ophtalmologie de l’Université de Tübingen résolvait le problème en amplifiant les signaux mais cela impliquait de relier la puce à une batterie. Le premier essai de son implant (qui mesure 9 mm2 et dispose de 1 500 électrodes) débuta en 2005. Depuis, le Professeur Palanker, de l’Université de Stanford, a développé des puces activées à distance par des infrarouges.

En quête de miniaturisation

La deuxième moitié des années deux mille dix est marquée par un effort colossal de miniaturisation. La chirurgie est devenue moins invasive. Parallèlement, une nouvelle version de l’implant a été élaborée en 2006. Il est doté de 60 électrodes : « Avec ce dispositif, des patients parviennent à se déplacer seul, à suivre une ligne au sol, à trouver un objet, à repérer une porte ou une fenêtre. Certains arrivent même à lire des mots en gros caractères sur un écran d’ordinateur. Une preuve que cette démarche peut permettre de revoir », affirme Serge Picaud. A noter toutefois que cette technologie produit une nouvelle manière de voir qu’il faut apprendre à maîtriser en s’exerçant plusieurs heures par jour. Parallèlement, si l’idée de l’équipe du Professeur Zrenner était de porter le nombre d’électrodes à 1 500 dans le but d’augmenter la perception, des études comparatives entre les deux implants ont révélé des résultats similaires, qu’ils soient dotés de 60 ou 1 500 électrodes. En effet, deux électrodes voisines peuvent se chevaucher et donc activer la même zone.

Restituer une vision plus aigüe

Il s’agit donc désormais d’augmenter les capacités des dispositifs. Pour résoudre la question du chevauchement des électrodes, « certains ont proposé d’inclure des électrodes de retour qui entourent les électrodes de stimulation. Toutefois, cela nécessite deux fils pour chaque électrode de stimulation, ce qui est un réel problème quand on met un grand nombre d’électrodes », souligne Serge Picaud. Une autre piste, explorée notamment par les chercheurs de l’Institut de la Vision avec le Professeur Palanker, est l’utilisation d’une grille de retour commune passant autour de toutes les électrodes de stimulation. Ces équipes travaillent également sur des implants tridimensionnels présentant des reliefs dans lesquels les neurones rétiniens vont se nicher pour les stimuler. Ces nouvelles configurations devraient améliorer la résolution des électrodes pour que l’augmentation des électrodes accroisse le nombre de pixels des images. Des études psychophysiques ont en effet démontré que pour reconnaître des figures complexes telles qu’un visage ou lire des textes, il faudrait une résolution comprise entre 600 et 1 000 pixels. Cette nouvelle génération d’implants est censée permettre d’atteindre cet objectif en tapissant le fond d’œil de plusieurs implants photovoltaïques sensibles à l’infrarouge. L’avenir consistera ensuite à pouvoir recourir à la rétine artificielle directement implantée sur le cortex visuel et ce, pour des indications et des patients ne disposant plus de nerf optique. Un rêve à portée de vue…

 

 

Perception des couleurs : à chacun la sienne !

Tout le monde ne perçoit pas les couleurs de la même manière ! Les informations lumineuses captées par les photorécepteurs sont transformées en signal électrique et acheminées par le nerf optique jusqu’au cerveau. C’est lui qui va recréer l’image. Mais, selon les personnes, les photorécepteurs sont plus ou moins sensibles à la longueur d’ondes et à l’intensité de la lumière qui leur parviennent. En outre, la perception du spectre visible de lumière, qui se situe entre 400 et 700 nanomètres, varie également d’un individu à l’autre. Une couleur n’est donc pas perçue par tout le monde de la même manière d’autant qu’elle résulte également de l’interaction rayonnement-lumière. Ainsi, donc, une couleur est-elle subjective : elle n’existe que dans le cerveau qui la représente.

Une innovation fulgurante et audacieuse pour la rétine

 

Longtemps redoutée, la chirurgie de la rétine et particulièrement la vitrectomie sont de plus en plus pratiquées au point de permettre, aujourd’hui, de traiter des pathologies auparavant considérées comme incurables.

 

La vitrectomie, qui fait partie de la chirurgie de la rétine, consiste à enlever tout ou partie du gel qui remplit l’espace situé entre le cristallin et la rétine, appelé vitré, lequel, n’étant pas indispensable pour la vision, peut être ôté. Cette intervention est indiquée dans le cadre d’un trou maculaire (affection de la macula), d’une membrane prémaculaire (très mince pellicule de tissu qui recouvre et plisse la macula), d’une hémorragie dans le vitré ou sous la rétine, d’une rétinopathie diabétique ou encore d’un décollement de la rétine. En effet, le gel vitréen a notamment pour fonctions d’amortir les chocs et d’empêcher le vieillissement oculaire. Comme le cristallin, il a tendance à se modifier avec l’âge : de gélatineux et flexible à la naissance, il devient plus liquide et peut se décoller de la rétine. La vitrectomie a donc pour but de restaurer une fonction optique défaillante (transparence), de supprimer des tractions du vitré sur la macula ou encore de créer un espace afin de pouvoir injecter un produit destiné à réappliquer la rétine. Elle est souvent la première étape de nombreuses chirurgies de la rétine, créant un espace ou les instruments peuvent mouvoir sans exercer de traction dangereuse sur les tissus.

L’intervention se déroule en milieu chirurgical stérile, sous anesthésie locorégionale et plus rarement générale. « Du liquide stérile est infusé dans l’œil, au fur et à mesure que le vitré est retiré, afin de maintenir le volume et la pression oculaires, explique la Société française d’ophtalmologie (SFO). Suivant la raison pour laquelle la vitrectomie est effectuée, d’autres gestes chirurgicaux peuvent lui être associés et, en fin d’intervention, le vitré peut être remplacé par du gaz, parfois de l’huile de silicone ou d’autres produits. » A noter que, dans le cas d’une injection de gaz, ce dernier se résorbe dans les jours ou semaines qui suivent l’intervention. L’huile de silicone, en revanche, doit être retirée au cours d’une intervention ultérieure et remplacée par du sérum. Le délai (jusqu’à plusieurs semaines, voire années) et le degré de récupération visuelle dépendent du motif de la vitrectomie.

L’histoire de l’innovation de la chirurgie de la rétine commence réellement à la fin des années soixante. En effet, la croyance selon laquelle toucher le vitré pouvait provoquer une perte totale de la vision a longtemps été répandue. C’est Robert Machemer qui, s’appuyant sur les travaux de David Kasner, a démenti cette idée fausse une bonne fois pour toutes en mettant au point un dispositif miniaturisé et motorisé. Dès 1970, il s’associa au Pr Jean-Marie Parel pour mettre au point un système de petite guillotine grâce auquel on pouvait aspirer le vitré et le couper pour séparer la partie aspirée du reste sans exercer de traction sur certaines fibres solidement attachée à la rétine. Les années soixante-dix virent la technique se développer et s’affiner grâce à Conor O’Malley et Ralph Heinz qui mirent au point un appareillage de 20 gauges de diamètre (soit 0,9 mm environ). Parallèlement, « on s’est aperçu que, pour réaliser une vitrectomie, il fallait certes remplacer ce que l’on aspire mais également mieux voir à l’intérieur de l’œil, explique le Pr Ramin Tadayoni, chef du service ophtalmologie de l’Hôpital Lariboisière, à Paris. On a donc mis au point un système spécifique pour mieux voir l’intérieur de l’œil à l’aide de l’illumination d’une fibre optique incérée via une incision et l’utilisation de microscopes. C’est ce que l’on nomme la vitrectomie trois voies qui fut sans cesse améliorée au fil des décennies suivantes, notamment grâce à la sophistication croissante des machines, ce qui permit une précision toujours plus grande notamment pour les flux d’entrée et de sortie, les coupes etc. » La vitrectomie moderne était née.

Un champ d’application élargi

Les années quatre-vingt marquent également l’avènement des microscopes, initialement prévus pour observer la partie antérieure de l’œil. Ils furent améliorés pour accéder à la partie postérieure de l’œil. Vers le milieu des années quatre-vingt-dix, « la technique évolue pour la première fois vers la chirurgie transconjonctivale, ce qui évite de devoir suturer, précise Ramin Tadayoni. En effet, il fallait auparavant enlever la muqueuse avant de faire des incisions larges à suturer en fin d’intervention. Ce n’est plus le cas désormais, le procédé se rapprochant d’une coelioscopie. Par ailleurs, le dispositif a désormais un diamètre de 25 gauges (0,5 mm). » Mais le dispositif montra ses limites et les années qui suivirent virent se développer des instruments de taille intermédiaire (23 gauges), puis du 25 gauges amélioré et même, plus récemment, des dispositifs de 27 gauges (encore plus fins). Parallèlement, les applications de la chirurgie de la rétine elles-mêmes évoluent : « Si la chirurgie de la rétine fut, dans un premier temps, appliquée au traitement de maladies comme des hémorragies et les opacités du vitré, elle a ensuite été adaptée au décollement de la rétine puis aux proliférations qui peuvent se développer sur la surface de la rétine notamment dans le cas de rétinopathie diabétique, poursuit le Professeur Tadayoni. Par la suite, elle a également été prescrite dans le cas de maladies considérées comme incurables telles que la membrane épimaculaire (une maladie injustement méconnue car c’est aujourd’hui la première indication de chirurgie de la rétine) ou les trous maculaires. Cette dernière fut rendue possible grâce à l’idée de séparer complétement le vitré de la rétine puis de remplacer le vitré. » Enfin, on vit arriver des colorants permettant de mieux distinguer les tissus et ainsi d’augmenter encore la précision de la chirurgie.

Précision et sécurité accrues

Les microscopes furent encore perfectionnés au cours des années deux mille avec l’inclusion de certains examens comme l’OCT (tomographie par cohérence optique) qui permet d’observer les différents composants de l’œil et donc de visualiser la forme et l’épaisseur des couches cellulaires de la rétine ainsi que la tête du nerf optique. Quant au futur ? Un important défi concerne le fond d’œil. Des efforts portent sur le perfectionnement des machines de vitrectomie et la mise en place d’une technologie qui supprime toute forme de traction. La quête d’une précision et d’un niveau de sécurité toujours plus grands est aussi à l’ordre du jour. Avec la démocratisation de la vitrectomie, il est à parier qu’il sera encore plus aisé de la pratiquer tout en contrôlant tous les effets secondaires. En revanche, la robotisation totale de la procédure n’est pas forcément souhaitable, comme l’explique le Professeur Tadayoni : « Au-delà de la question du coût par rapport aux bénéfices réels, la main du chirurgien peut être assistée du robot mais que le patient, opéré sous anesthésie locale, réalise forcément des mouvements, un phénomène que ne peut encore bien contrôler le robot. »

 

 

« Une spécialité de haute technicité »

Pr Ramin Tadayoni, chef du service ophtalmologie de l’Hôpital Lariboisière (Paris)

« L’avancée des technologies (électronique) et l’amélioration des dispositifs (miniaturisation) ont énormément bénéficié aux patients qui doivent bénéficier d’une vitrectomie. Bien que l’intervention doive toujours se faire dans un environnement stérile, elle peut désormais se faire en ambulatoire, ce qui était inenvisageable auparavant où il fallait longtemps pour se remettre. Maintenant, il n’y a souvent pas de trace visible de la chirurgie. Tout s’est donc joué ces trente dernières années car il nous fallait attendre d’avoir ces biotechnologies sophistiquées à notre disposition : cela tient à la complexité de l’œil lui-même. C’est également la raison pour laquelle la chirurgie de la rétine est une discipline à haute technicité, longue à apprendre et qui nécessite un matériel dédié mais qui peut changer littéralement la vie des patients. »

Redonner à l’œil son vrai visage

 

L’oculoplastie, ou chirurgie oculoplastique, désigne la chirurgie de la région périoculaire. Longtemps négligée, elle a peu à peu acquis sa légitimité pour être aujourd’hui une discipline à part entière.

 

L’oculoplastie désigne à la fois la pathologie et la chirurgie de la région périoculaire, c'est-à-dire de l’orbite, des paupières et des voies lacrymales. Son but est de rendre sa structure anatomique, sa fonction et son apparence esthétique à un œil et/ou un regard abîmés. En effet, certains problèmes concernant cette région dite frontière nécessitent de recourir à la chirurgie : ptosis, réparation des paupières (traumatismes, brûlures), désobstruction des conduits lacrymaux, tumeurs oculaires etc. C’est une chirurgie essentiellement fonctionnelle mais qui peut avoir une visée esthétique le cas échéant.

« En France, jusqu’aux années soixante-dix, les ophtalmologistes s’intéressaient surtout à l’œil et très peu à ses annexes » explique le Dr Serge Morax qui a développé l’une des premières unités spécialisées en oculoplastique en France, à partir de 1976. Si le plasticien britannique Jack Mustardé s’intéressa à la chirurgie de l’œil dans les années soixante et rédigea les premiers écrits sur cette question, c’est le Français Paul Tessier, considéré comme le père de la chirurgie crânio-orbito-faciale mondiale, qui a créé les premiers liens entre cette spécialité et les ophtalmologistes français, notamment pour traiter les grandes malformations congénitales. Cette collaboration favorisa le développement de la chirurgie autour de l’œil dans les années soixante-dix. Ainsi, dès 1980, les premiers services hospitaliers d’oculoplastie virent le jour avec le développement d’un enseignement post-universitaire, la création de sociétés savantes dès 1983 dont la Société européenne d’oculoplastique (ESOPRS).

Des dispositifs moins invasifs…

La prise en charge des reconstructions orbitaires aussi bien en traumatologie qu’en chirurgie plastique reconstructive a bénéficié, ces dernières années, d’améliorations importantes grâce à l’utilisation de nouveaux biomatériaux, exemple caractéristique de la recherche clinique.

Dans la chirurgie des cavités orbitaires (énucléation, exentération), les implants poreux (hydroxy-apatite, synthétiques de type biocéramique ou alumine, voire polyéthylène poreux) sont de plus en plus utilisés aux dépens des implants non poreux (silicone principalement).

Dans les exentérations indiquées en chirurgie carcinologiques, plutôt que de proposer des reconstructions faciales complexes, il est aujourd’hui possible de placer des implants magnétiques sur vis en titane permettant l’adaptation d’une épithèse moulée (technique dérivée des implants de Branemark en chirurgie dentaire).

L’imagerie a elle aussi permis des avancées considérables dans le diagnostic, le pronostic et l’indication opératoire des tumeurs orbitaires et des fractures orbitaires.

… et toujours plus compatibles

Les recherches menées ces dernières années et celles à venir portent essentiellement sur les matériaux. Comme le précise Serge Morax, « beaucoup de progrès ont déjà été faits en matière d’oculoplastique. Les progrès sont liés à la technologie, à l’utilisation du microscope opératoire, à des voies d’abord beaucoup plus petites évitant des cicatrices disgracieuses. Pour ce qui est des perspectives, le travail portera essentiellement sur la biotolérance avec des matériaux toujours plus adaptés à l’organisme et sont capables de remplacer l’os et les tissus des paupières. » Ainsi un travail est-il mené, à l’heure actuelle, pour mettre au point un silicone non plus hydrophobe mais hydrophile en le recouvrant d’un matériau afin d’en améliorer le pouvoir mouillant. Ce produit permet ainsi aux larmes de mieux couler sur le matériau. La pathologie lacrymale a elle aussi bénéficié d’une amélioration aussi bien des méthodes d’exploration que des différents traitements proposés. À cet égard, il convient d’évoquer l’intérêt diagnostique de la dacryocystographie associée au scanner ou à l’IRM, la micro-endoscopie des voies lacrymales ainsi que l’endoscopie lacrymale transcanaliculaire. Il faut aussi et surtout évoquer l’intérêt des sondes d’intubation mono ou bicanaliculaires de mieux en mieux tolérées. Enfin, un progrès important ces dernières années a consisté à prendre en charge les larmoiements chroniques considérés comme non traitables. Pour cela, depuis quelques années, on recourt à la dilatation via un ballonnet dans les voies lacrymales, une opération qui s’effectue très rapidement et qui présente un taux de réussite de 70 %.

 

 

De moins en moins de chirurgie traumatique de l’orbite

En France, les traumatismes, les plaies graves de l’œil et leurs complications ont diminué de manière significative depuis 1983, date à laquelle les pare-brises feuilletés ont été rendus obligatoires. D’une manière générale, les changements successifs en matière de Code de la route (port de la ceinture obligatoire, limitation de vitesse etc.) ont permis de faire baisser le nombre de chirurgies traumatiques de l’orbite. Mais d’autres évolutions sociétales récentes (évolutions des critères dits de beauté, notamment) ont en revanche augmenté le nombre d’interventions à visée esthétique.

Explorer l’œil pour mieux le soigner

 

Ultime recours en cas de grave anomalie de la cornée pouvant conduire à la cécité, la greffe de cornée est devenue aujourd’hui la greffe la plus répandue en France.

 

La greffe de cornée intervient pour corriger « une anomalie de la cornée à l’origine de […] troubles visuels », explique la Société française d’ophtalmologie (SFO). La cornée peut être altérée par diverses pathologies : anomalie de développement, dystrophie héréditaire, opacité, œdème, traumatisme ou anomalie d’épaisseur dont le kératocône qui représente environ un tiers des greffes de cornée selon l’Association Kératocône. Le but de la greffe de cornée est « de restituer la transparence et favoriser la transmission de la lumière dans de bonnes conditions. La vision sera alors améliorée si les autres structures oculaires le permettent », explique la SFO.

Il existe aujourd’hui trois types de greffe de cornée. Chacune est préconisée selon des cas spécifiques et nécessite une instrumentation adaptée.

- La kératoplastie transfixiante : « Préconisée lorsque la pathologie touche à la fois l’endothélium et le stroma », elle « consiste à remplacer la cornée sur toute son épaisseur et sur un diamètre de 7 à 9 mm », explique le Pr Marc Muraine, chef du service ophtalmologie du CHU de Rouen. Dans le cadre de cette intervention, le matériel permet la trépanation (découpe circulaire) des cornées du donneur et du receveur. Divers instruments sont requis parmi lesquels : le trépan (sorte de cylindre au bord coupant qui permet de réaliser la découpe), parfois un anneau de Flieringa (anneau de support), un blépharostat (qui maintient les paupières écartées) ou encore un punch (dispositif facilitant la préparation du greffon).

- La greffe lamellaire antérieure : cette intervention consiste, cette fois, « à remplacer uniquement la partie antérieure de la cornée, c’est-à-dire le stroma, poursuit le Professeur Muraine. [...] Suivant les cas, il est possible de remplacer uniquement une lamelle de stroma […] ou la totalité du stroma jusqu’à la membrane de Descemet ». Cette greffe est la plus utilisée aujourd’hui dans les pathologies stromales, en particulier, le kératocône car elle offre de meilleurs résultats visuels. Si l’intervention consiste à n’enlever qu’une partie du stroma (greffe lamellaire antérieure non profonde), il est nécessaire de disposer un microkératome, sorte de rabot miniaturisé qui permet de prélever une très fine couche de cornée.

- La greffe lamellaire postérieure : aussi appelée greffe endothéliale, elle a pour but de retirer l’endothélium lésé. Suivant le type de greffe lamellaire postérieure choisi, il est parfois nécessaire de disposer d’un microkératome et d’un punch spécifique alors que certaines situations n’exigent que très peu d’instrumentations. Dans le cadre de cette opération, le greffon est introduit dans la chambre antérieure de l’œil, dans laquelle on injecte ensuite une bulle d’air pour « plaquer [le greffon] au stroma résiduel ». D’une manière générale, l’hospitalisation pour une greffe de cornée est très courte puisqu’elle est le plus souvent d’un à deux jours.

Dès l’Antiquité, l’opacification de la cornée a concentré l’attention des scientifiques dont le Grec Claude Galien qui étudia la structure de l’œil et publia un recueil sur les maladies oculaires. Il fallut cependant attendre 1789 pour qu’un ophtalmologiste français, Guillaume Pellier de Quengsy, propose la première kératoprothèse. Peu de temps après, en 1797, Erasmus Darwin (le grand-père du bien connu Charles) s’intéressa lui aussi au traitement chirurgical des opacités de la cornée et élabora le concept de trépanation de la cornée : « Après les grandes ulcérations de la cornée, l’inégalité et l’opacité de la cicatrice empêchent la vision. Nous demandons si, dans ce cas, on ne pourrait pas exciser un petit morceau de la cornée au moyen d’une espèce de petit trépan […], et si cette ouverture ne se fermerait pas d’une petite cicatrice transparente. Cette proposition mérite d’être essayée et pourrait être mise à exécution le plus aisément au moyen d’un fil creux d’acier muni d’un bord tranchant à travers lequel une vis pointue serait introduite. Il faudrait que la vis perçât la cornée opaque pour la fixer et la presser contre le bord tranchant du fil creux ou cylindre. Si la plaie se cicatrisait sans que la transparence se perdît, on pourrait redonner le jour à quelques aveugles par cette opération facile et non douloureuse. C’est une expérience que je recommande aux chirurgiens habiles et aux oculistes » (« Zoonomie », Erasmus Darwin, cité par le Dr Florent Cunier dans le volume 10 des « Annales d’oculistique », 1843). Les décennies suivantes virent de nombreuses tentatives de greffe, notamment en utilisant des cornées d’origine animale. Elles furent pour la plupart infructueuses. Si c’est au chirurgien britannique William Bowman que l’on doit véritablement l’entrée, en 1869, du trépan dans l’arsenal thérapeutique oculaire, ce sont Louis de Wecker puis Arthur Von Hippel qui en améliorèrent la technique afin de réaliser des greffes lamellaires grâce à une découpe régulière des cornées du donneur et du receveur. D’ailleurs, chacun donna, successivement son nom à un modèle de cet instrument.

La confirmation du miracle de la vue rendue

Comme pour beaucoup d’autres spécialités médicales, ce sont les progrès réalisés en matière d’anesthésie et d’asepsie, à partir de la fin du XIXe siècle et au cours de la première moitié du XXe, qui permirent des avancées significatives en ophtalmologie, notamment en chirurgie de la cornée. Au début du XXe siècle, la preuve fut apportée que les meilleurs greffons pour la chirurgie de la cornée sont ceux d’origine humaine, reléguant les cornées animales aux oubliettes, du moins pour un temps. C’est à l’Autrichien Eduard Zirm que l’on doit la première kératoplastie transfixiante couronnée de succès, comme le souligne l’Office fédéral suisse de la santé publique (OFSP) : en 1905, il « a réalisé une greffe de cornée sur un ouvrier rendu aveugle lors d’un accident de la chaux vive en utilisant la cornée d’un enfant décédé de 11 ans. Même après guérison, la cornée ne s’est pas opacifiée. Quelques heures après l’opération, le patient avait retrouvé la vue et l’a conservée jusqu’à la fin de ses jours. » Et l’organisme de préciser que « la méthode chirurgicale développée par Zirm est aujourd’hui encore à la base du traitement des lésions de la cornée. » Les années soixante furent le théâtre d’une nouvelle révolution avec la mise au point du principe de l’ostéo-odonto-kératoprothèse par un chirurgien italien, Strampelli. Elle consiste à fabriquer un support biologique pour une cornée artificielle à partir d’une dent et de son parodonte. C’est également dans la deuxième moitié du XXe siècle que se constituèrent les premières banques de cornée, condition sine qua non à l’essor de cette technique : aux États-Unis et en France dans les années quarante, en Grande-Bretagne dans les années soixante…

Miniaturisation et greffes lamellaires

Entre 1975 et 1980, de gros progrès ont à leur tour été réalisés sur les microscopes opératoires qui évitent désormais aux chirurgiens d’opérer avec des lunettes loupes. Ils permettent également de découper avec beaucoup plus de précision et de réaliser des sutures de greffe. Puis, entre le milieu et la fin des années quatre-vingt-dix, le microkératome a permis de gagner encore en précision et en miniaturisation. Les années deux mille signent également un tournant révolutionnaire dans l’histoire de la greffe de cornée, comme l’explique le Pr Marc Muraine : « Auparavant, la pratique de la greffe totale était extrêmement répandue. Or, la pathologie peut toucher uniquement la partie antérieure de la cornée (stroma) ou la couche postérieure (endothélium). Or, il n’est plus nécessaire de remplacer toute l’épaisseur de la cornée depuis le développement important des greffes dites lamellaires. Depuis 2000, l’approche a ainsi changé et il arrive de plus en plus souvent que l’on laisse l’œil intègre et que l’on ne touche que certaines couches de la cornée. » Ces années marquent l’avènement des greffes partielles ou lamellaires : « L’instrumentation elle-même le permettait auparavant et on aurait pu le faire dès 1985, affirme le Professeur Muraine. Dans le cas de la greffe de cornée, ce n’est pas la mise au point d’un nouveau dispositif mais le changement de la conception physiopathologique et de l’analyse anatomique de l’œil. En d’autres termes, pour cette fois, le concept a précédé l’outil ! »

Moins de rejet pour toujours plus de qualité optique

Pour autant, l’innovation en matière de greffe de cornée évolue en permanence afin de gagner encore en qualité optique, notamment celle du greffon. La qualité de ce dernier est en effet extrêmement importante pour diminuer le risque de rejet.

Aujourd’hui, la recherche porte sur le développement des techniques permettant de préparer les greffons lamellaires avec plus de précision et de rapidité tout en protégeant au maximum leur qualité cellulaire. Cela peut passer par la mise au point de lasers permettant la découpe, de microkératomes de dernière génération, parfois de techniques chirurgicales simples ou encore par la mise à disposition de systèmes d’injection améliorés. Des équipes travaillent également sur la possibilité d’obtenir des greffons à partir de cultures cellulaires, ce qui permettrait de ne pas avoir recours à autant de donneurs. Enfin, certains travaux évoquent la possibilité de régénérer la cornée et son endothélium sans avoir recours à une greffe, simplement en injectant une protéine dans la chambre antérieure de l’œil. Enfin, si l’allogreffe de cornée est aujourd’hui acquise dans certains pays, il n’en est pas de même partout, tant pour des raisons religieuses que sociales (interdiction de prélever des tissus sur un défunt, par exemple). De même, certaines civilisations refusent le recours à des tissus animaux. De quoi ouvrir une nouvelle piste d’innovation : celle des cornées synthétiques.

 

 

Comment est composée la cornée ?

La cornée est la membrane transparente enchâssée tel un hublot à l’avant de l’œil. Plus précisément, c’est « le segment antérieur de la tunique fibreuse de l’œil. Grâce à sa forme arrondie et régulière, et à sa transparence, il joue le rôle d’une lentille convergente et constitue la partie essentielle de l’appareil dioptrique oculaire chez les animaux vivant dans l’air » (« Dictionnaire médical de l’Académie de médecine »). D’avant en arrière, la cornée est composée de l’épithélium, de la membrane de Bowman, du stroma, de la membrane de Descemet et de l’endothélium. Outre son rôle de transmetteur de la lumière et de focalisation des images grâce à son pouvoir dioptrique, la cornée protège les tissus intraoculaires.

Toujours plus rapide, toujours plus précis

 

Si la technologie du laser est aujourd’hui omniprésente (industrie, vie quotidienne etc.), c’est en médecine, et tout particulièrement en ophtalmologie, que ses applications sont les plus remarquables.

 

La technologie du laser est principalement utilisée en ophtalmologie pour la chirurgie réfractive (traitement de la myopie, de l’astigmatisme, de l’hypermétropie et, dans une bien moindre mesure, de la presbytie, voir page 35), le traitement de la cataracte, celui du glaucome et des affections de la rétine (en particulier son décollement). Les lasers utilisés en ophtalmologie peuvent avoir une action photocoagulante, une action photodisruptive et/ou une action photoablative. D’une manière générale, les lasers permettent de travailler sur l’organe accessible à la lumière qu’est l’œil sans avoir à l’ouvrir, ce qui permet des gains très importants en matière de sécurité (notamment pour ce qui est des risques d’infection) et de temps de récupération pour le patient. Selon l’usage qui en est fait, le laser permet également d’effectuer de très fines et précises incisions et de cautériser les vaisseaux sanguins. « En ophtalmologie, les lasers ont littéralement révolutionné la prise en charge des patients comme dans aucune autre discipline, renchérit le Pr Gilles Renard, Directeur scientifique de la SFO. Si chaque laser a sa spécificité, ils ont tous en commun d’avoir apporté une précision telle que l’on peut travailler aujourd’hui au micron près, ce que ne saurait obtenir la main du chirurgien, si doué soit-il. »

Le phénomène de lumière laser relève de la physique quantique. Il consiste à « produire une émission stimulée de lumière cohérente », énonce l’Académie de médecine, en d’autres termes, un faisceau de lumière amplifiée parfaitement rectiligne. A l’intérieur d’un laser se trouve un compartiment rempli de ce que l’on appelle la matière laser : en l’occurrence du gaz, comme de l’hélium ou de l’argon, ou un cristal (solide ou liquide). Les photons, envoyés en rafale sur la matière laser, activent les atomes de celle-ci, lesquels vont émettre d’autres photons qui vont eux-mêmes stimuler d’autres atomes et ainsi de suite jusqu’à ce que les photons soient réfléchis sur un miroir. Ils repartent alors en sens inverse jusqu’à un second miroir. Le faisceau est alors créé.

Si le principe du laser fut expliqué par le célèbre Albert Einstein dès 1917 avec sa théorie de l’émission stimulée, ce n’est que vers le milieu des années cinquante (1954-1958) que l’Américain Charles Townes mot au point, avec son beau-frère Arthur Schawlow, les concepts régissant ce que l’on nomme le faisceau cohérent, des travaux qui furent récompensés plus tard par le Prix Nobel de physique (1964). C’est sur la base de ces travaux qu’en 1960, un autre Américain, Theodore Maiman, fabriqua le premier laser qui fonctionnait grâce à un rubis. Dès lors, la technologie du laser commença à fasciner les diverses communautés scientifiques et, en premier lieu, la médecine. Et c’est l’ophtalmologie qui fut la première spécialité médicale à s’approprier le dispositif : dès l’automne 1961, en effet, les médecins américains Charles J. Campbell et Charles Koester de New-York utilisèrent pour la première fois un prototype de laser rubis sur un patient afin de détruire une tumeur rétinienne. « Ont ensuite été évaluées différentes longueurs d’ondes pour aboutir à des traitements rétiniens ciblés, le laser demeurant pionnier et référent étant le laser argon », explique le Pr Béatrice Cochener, chef du service d’ophtalmologie du CHU de Brest et Présidente de l’Académie française d’ophtalmologie.

De l’aviation à la réfraction

C’est au cours des années soixante-dix que les lasers connurent une nouvelle évolution significative avec l’invention du laser YAG : « Ce dispositif est né d’une rencontre entre le Pr Danièle Aron-Rosa, ophtalmologiste à la Fondation Rothschild, et un ingénieur de Dassault, rappelle le Pr Gilles Renard, Directeur scientifique de la Société française d’ophtalmologie (SFO). En effet, l’ingénieur utilisait la méthode du laser notamment pour perforer le blindage des chars. En 1978 fut mis au point un laser spécial permettant de perforer le cristallin. » Les premiers résultats furent présentés en 1979.
Les lasers YAG permirent notamment de traiter certains glaucomes aigus et, surtout, les cataractes dites secondaires, à savoir l’opacification du sac de l’implant (capsulotomie), puisque le laser est capable de détruire le voile qui se place derrière l’implant grâce au principe de photodisruption. Par ailleurs, cette technologie permet de procéder à des iridectomies, le tout sans chirurgie. Les années quatre-vingt virent l’avènement de l’usage du laser à but réfractif avec le recours aux lasers excimer, comme le souligne le Professeur Cochener : « En 1988, l’Américain Stephen Trokel eut, le premier, une approche astucieuse en appliquant ces lasers, traditionnellement utilisés dans l’industrie, à la cornée. Il tira profit de leur capacité à réaliser des découpes avec une précision de l’ordre du micron. Ce laser recourt au principe de la photoablation. » Le concept initial était de réaliser des incisions cornéennes au laser pour remplacer celles réalisées classiquement au couteau diamant qui corrigent la myopie par l’aplanissement indirect de la cornée. Dans les années quatre-vingt-dix, le laser excimer permit de réaliser un surfaçage de la partie centrale de la cornée (après avoir retiré l’épithélium) pour en obtenir son aplanissement direct et ainsi modifier son pouvoir réfractif. Puis, moins de cinq ans plus tard fut développée la technologie Lasik qui consiste à découper un volet de cornée sous lequel est réalisée la photoablation. La repose du volet évite l’attente de la repousse de l’épithélium pour retrouver le confort et la récupération visuelle. « Le faisceau laser, dont le diamètre est de moins de 1 mm, réalise tous les profils souhaités par balayage : ablation centrale circulaire pour la correction myopique ou en ellipse en cas d’astigmatisme combiné, couronne périphérique pour induire un bombement indirect central dans le but de rallonger l’œil trop court qu’est l’hypermétrope. Le profil défini pour la correction de la presbytie est beaucoup plus récent et repose sur une modulation des courbures plus complexe, guidée par un système d’imagerie topographique qui permet d’augmenter la prolaticité de la cornée pour améliorer la vision de près », résume le Professeur Cochener. Le laser occupe depuis la première place sur la scène de la chirurgie réfractive car il est capable de corriger les défauts minimes et modérés à condition que la cornée présente les critères de symétrie, de régularité, d’épaisseur et de résistance requis pour un geste sécurisé.

Vers des actions toujours plus ciblées

Depuis les années deux-mille-dix, c’est le laser femtoseconde qui concentre les innovations les plus importantes. Ce dispositif permet de remplacer la découpe mécanique du microkératome pour la réalisation du volet Lasik. Mais il autorise également la réalisation d’incisions cornéennes correctrices de l’astigmatisme. Une autre application de ce dispositif consiste à créer un tunnel dans la cornée pour pouvoir y glisser des petits anneaux rigides afin de la remodeler en cas de kératocône voire exceptionnellement, en cas de myopie sur cornée fine ne pouvant bénéficier d’un laser excimer. Il permet également de fabriquer des poches dans la cornée afin d’y glisser une lentille pour corriger la presbytie. Enfin, le femtolaser permet, depuis très récemment, de découper une petite lentille dans la cornée puis de l’extraire afin de traiter la myopie (technique du smile). Grâce à ce procédé, il est possible de pratiquer une incision encore plus petite et, par conséquent, d’avoir un moindre retentissement sur la mécanique cornéenne et la sécheresse oculaire. Le laser femtoseconde agit en réalisant une photodisruption. L’adaptation de sa focalisation en arrière de la cornée sur le cristallin a favorisé l’avènement de la chirurgie de la cataracte au laser femtoseconde qui, guidée par un système d’imagerie intraoculaire, réalise les éventuelles incisions limbiques relaxantes destinées à corriger un astigmatisme cornéen. « L’histoire des lasers est marquée par l’exploration de diverses longueurs d’ondes et de l’évaluation de leur interaction avec les tissus pour servir à la fois au développement des outils d’imagerie et à celui de techniques thérapeutiques et chirurgicales de plus en plus ciblées », résume le Professeur Cochener. Ainsi, les lasers ont-ils connu et connaissent-ils encore des affinements majeurs. Ils sont désormais guidés par des eye-trackers, des systèmes de détection des mouvements de l’œil permettant d’accompagner les micro-mouvements de l’œil, de garantir un maintien optimisé du centrage et de compenser les rotations du globe entre la position couchée et assise. La réalisation de zones de transition a permis de minimiser le risque de cicatrisation anormale et de régression. Les lasers sont également guidables par des systèmes d’imagerie qui peuvent être la topographie ou l’aberrométrie. Toutes deux visent à personnaliser le traitement selon les caractéristiques de la cornée du patient en dépassant la seule dimension de la correction de l’erreur réfractive (myopie ou hypermétropie avec ou sans astigmatisme). La topographie d’élévation permet de mesurer les variations de courbures sur les faces antérieure et postérieure de la cornée. Cet outil de diagnostic permet de vérifier l’intégrité de la cornée ou de mesurer un astigmatisme. Connectée à un laser excimer, elle est précieuse pour assister ce dernier dans le lissage des cornées irrégulières, par exemple. L’aberrométrie, quant à elle, est née de l’optique adaptative à laquelle la NASA a recours pour l’évaluation de la surface des planètes. Appliquée au système oculaire, elle autorise la mesure des aberrations optiques de la cornée ou de l’œil entier. Cet outil de quantification de la qualité de vision est devenu indispensable à la pratique clinique. Lié au laser excimer, il assure, au-delà du défaut réfractif, la correction des aberrations optiques qui conditionnent notamment la vision des contrastes et le confort visuel dans la pénombre ou la nuit. « Cependant le profil aberrométrique parfait reste à déterminer car il est admis que l’élimination de toutes les aberrations ne correspond pas à la vision idéale, rappelle le Pr Béatrice Cochener. Il faut définir quelles conditions optimales sont à viser selon l’âge et les conditions de vie de chaque patient... Néanmoins, il faut souligner que l’objectif de correction efficace, stable et confortable est désormais atteint. C’est le résultat des spectaculaires progrès qui se sont succédés au cours des deux dernières décennies validant la connotation magique du mot laser ».

 

 

Focus sur le microkératome

On entend par microkératome une sorte de rabot miniaturisé. Il a été mis au point dans les années cinquante par José Barraquer, un ophtalmologiste espagnol. Ce dispositif médical est inspiré du principe du dermatome. Utilisé avec le laser excimer, le microkératome permet de découper une lamelle, appelée capot, sur la surface de la cornée puis une seconde dans le stroma cornéen. C’est cette seconde découpe qui est réellement réfractive et modifie la géométrie de l’œil afin d’agir sur la puissance optique de la cornée. A noter que ce dispositif tend de plus en plus à être remplacé par le laser femtoseconde.

Traitement du glaucome par ultrasons : garder l’œil intact

 

Les ultrasons peuvent être utilisés comme une alternative au traitement médicamenteux et à la chirurgie longtemps prescrits en première intention dans le traitement des glaucomes.

 

Le glaucome est une pathologie de l’œil qui se traduit par une pression intraoculaire trop élevée. Si les ultrasons ont longtemps été prescrits comme traitement de deuxième intention ou de reprise pour les glaucomes réfractaires, ce n’est plus totalement le cas aujourd’hui. Ils peuvent même parfois être proposés à des patients en première intention. Cette technique, qui peut être combinée à un traitement chirurgical, présente l’énorme bénéfice d’être moins invasive, moins traumatique et de traiter l’intérieur de l’œil sans l’ouvrir. En effet, les ultrasons délivrent une énergie en profondeur en traversant des tissus parfaitement préservés pour aller détruire la zone ciblée et seulement elle. L’observance, le confort du patient ainsi que sa qualité de vie s’en trouvent considérablement améliorés.

Le principe de cette technique est donc d’agir sur la pression intraoculaire. L’opération se déroule en ambulatoire. L’œil est insensibilisé et on aborde le globe oculaire par l’extérieur. Il existe deux types de dispositifs permettant le traitement par ultrasons : le premier consiste à générer des « ultrasons de faibles puissance et fréquence (40 kHz) sur la partie extérieure de l’œil adjacente au limbe cornéen, entraînant une réaction d’hyperthermie pour libérer des cytokines diminuant la PIO », explique le Comité d’évaluation et de diffusion des innovations technologiques (« Glaucome – Le point sur les technologies émergentes », 2013).  Le second dispositif repose sur « le principe des ultrasons focalisés de haute intensité (HIFU) [et] consiste en une sonde jetable placée sur l’œil qui transmet des ultrasons permettant la destruction thermique de certaines parties du corps ciliaire pour diminuer la production d’humeur aqueuse », le liquide contenu dans l’œil. Les ultrasons sont envoyés sur la partie à traiter par salve de huit secondes, répétée six fois et avec une pause de vingt secondes entre chacune des six salves. Peu douloureuse et sans effet secondaire majeur, cette technique repose sur le principe d’une microcoagulation : on chauffe et on cicatrise de façon très douce après avoir repéré les zones que l’on souhaite coaguler (les procès ciliaires) grâce à l’imagerie, cette opération permettant par ailleurs d’identifier la sonde la plus adaptée à la taille de l’œil du patient traité.

C’est au biologiste et physiologiste italien Lazzaro Spallanzani que l’on doit, sinon la découverte, du moins l’intuition de l’existence des ultrasons suite à son observation des vols nocturnes des chauve-souris en 1794. Mais il fallut attendre près d’un siècle (1878 – 1882) pour que Pierre Curie découvre, avec son frère, la piézoélectricité. La Première Guerre mondiale marque un grand tournant dans l’histoire des ultrasons avec la construction, par le physicien Paul Langevin, du premier transducteur ultrasonique moderne utilisé dans la détection des sous-marins. Les premières utilisations industrielles des ultrasons voient le jour dans l’Entre-deux-guerres, avec la mise au point d’une méthode pour détecter les défauts de fabrication.

Un usage progressivement appliqué à la médecine

Si les ultrasons furent utilisés pour la première fois dans un but diagnostique par le médecin autrichien Karl Dussik dès 1942, ce n’est qu’en 1960 que fut commercialisé le premier échographe. Les progrès dans l’utilisation des ultrasons en imagerie se poursuivirent au fil des années soixante et soixante-dix (voir le livret consacré à l’histoire de l’innovation des dispositifs médicaux en imagerie), mais il fallut néanmoins attendre les années quatre-vingt et quatre-vingt-dix pour que soient développés les premiers appareils à ultrasons destinés à réduire la pression intraoculaire. Toutefois, bien qu’ayant prouvé leur efficacité et leur grande précision, l’accueil fut mitigé : en effet, peu d’ophtalmologistes s’en dotèrent.

Vers une thérapie alternative pour le glaucome

C’est au début des années deux mille que les ultrasons firent leur grand retour en ophtalmologie pour traiter les formes les plus réfractaires de glaucome. L’idée est de détourner la technologie des ultrasons focalisés à haute intensité (HIFU) déjà utilisée pour le traitement des calculs rénaux et de certains cancers dont celui de la prostate. En effet, cette technologie a l’avantage d’agir de manière très ciblée et avec une extrême précision, une nécessité lorsque l’on traite les yeux. En France, la technologie des HIFU a été développée dès 2008 grâce à un partenariat entre un industriel et la cellule spécialisée en ultrasons thérapeutiques de l’Inserm à Lyon. A noter que les ambitions de ces premiers travaux se voulaient grandes : on pensait en effet, à l’époque, avoir découvert la thérapie définitive pour le glaucome. Celui-ci reste néanmoins, aujourd’hui encore, l’un des grands mystères non résolus en ophtalmologie. Les premières études démarrèrent dans les années deux-mille-dix, comme l’explique le Pr Florent Aptel, spécialiste de la chirurgie du glaucome au CHU de Grenoble : « Une première étude clinique pilote ayant pour objectifs principaux d’évaluer la faisabilité et la sécurité de cette nouvelle méthode de traitement ainsi que d’estimer son efficacité sur un nombre limité de patients, a été conduite à partir de mars 2010 chez douze patients atteints d’un glaucome réfractaire aux chirurgies filtrantes ».

Soigner des pathologies toujours plus nombreuses

Si les premiers appareils étaient des dispositifs imposants, un gros travail de miniaturisation fut également mené, si bien que le dispositif actuel n’est pas plus grand que l’œil qu’il est appelé à soigner et en épouse l’anatomie. Adaptée à chaque patient, la procédure est également aujourd’hui complétement programmée et guidée par informatique jusqu’à être devenue relativement simple. Si la technologie s’annonce plus que prometteuse, quelques imperfections demeurent sur lesquelles se concentrent désormais les recherches. En effet, tout comme pour les chimiothérapies, le traitement du glaucome par ultrasons peut donner lieu à des résultats différents d’un patient à l’autre. La thérapie par ultrasons est donc aujourd’hui une bonne solution (parmi d’autres) au traitement du glaucome et pourrait bien trouver d’autres applications.

 

 

Faire retomber la pression 

La Pression intraoculaire (PIO), également appelée tension intraoculaire, est la pression qui règne à l’intérieur du globe oculaire, lequel est un organe creux. On la mesure avec un tonomètre, la plupart du temps dit à aplanation de Goldmann (à utiliser avec une lampe à fente) ou de Perkins (manuel).

Une PIO normale varie entre 8 et 21 mm de mercure (la moyenne se situant autour de 16 mm de mercure). Si l’humeur aqueuse a des difficultés à s’écouler hors de l’œil, la PIO s’élève. La zone rouge se situe au-delà de 21 mm de mercure (au-delà de 31 mm de mercure, on parle d’une PIO très élevée).

À noter, toutefois, que la PIO varie selon les heures de la journée et de la nuit : c’est pourquoi il est recommandé d’alterner les heures de mesure de tension et, donc, de rendez-vous chez l’ophtalmologiste !

Une révolution pour le traitement de la cataracte

 

Si elle est l’une des plus anciennes, la chirurgie de la cataracte a longtemps été une pratique redoutée car réputée difficile. C’est l’invention de la phacoémulsification, dans les années soixante, qui a permis d’en révolutionner l’approche.

 

La phacoémulsification (PKE) vient du grec « phaco » qui signifie lentille ou cristallin en ophtalmologie. Le principe de cette technique est donc de recourir aux ultrasons pour générer une onde de choc afin de fragmenter le cristallin cataracté. « C’est devenu aujourd’hui la procédure standard, assure le Dr Philippe Crozafon, le précurseur de la phacoémulsification en Europe. Elle représente 95 % de la chirurgie de la cataracte et gageons que nous atteindrons un taux de 100 % d’ici une dizaine d’années ! »

Le phacoémulsificateur est composé d’un générateur d’ultrasons, d’une pompe d’aspiration et d’un système d’irrigation. Les ultrasons permettent de détruire le cristallin opacifié dont on retire les morceaux grâce à la pompe. Enfin, le système d’irrigation permet de conserver l’équilibre dans la gestion des fluides, un élément nécessaire puisque l’ophtalmologiste opère en système clos. Il s’agit d’un manche au bout duquel se trouve une pointe en titane à usage unique qui vibre et permet la destruction du cristallin. La fréquence des ultrasons est très élevée : 32 000 hertz. Cela correspond en quelques sortes à un minuscule marteau-piqueur très rapide, effectuant 32 000 allers-retours par seconde. L’œil est irrigué par un produit spécifique dont la composition se rapproche de celle de l’humeur aqueuse : cela permet de travailler plus facilement et les fragments sont extraits au fur et à mesure de l’intervention. Un implant est ensuite introduit pour remplacer le cristallin opacifié. A noter que l’une des complications très redoutées mais heureusement très rares est la rupture capsulaire (un trou dans la capsule postérieure).

L’intérêt porté à la cataracte et à son traitement ne date pas d’hier ! En effet, des traces d’une chirurgie de la cataracte datant d’il y a 4 000 ans ont pu être retrouvées. Elle consistait à « faire basculer dans l’œil (dans le vitré) le cristallin devenu blanc et opaque (la cataracte), au moyen d’instruments pointus qu’on introduisait sans anesthésie dans le globe oculaire » (« Histoire de l’opération de la cataracte », Encyclopédie de la vue du Syndicat national des ophtalmologistes de France, SNOF). C’est ce que l’on appelait la chirurgie de la cataracte par abaissement. Mais l’opération, dont la technique évolua très peu et très lentement jusqu’au XVIIIe siècle, était risquée et entraînait de nombreuses complications. En France, « c’était surtout des barbiers itinérants qui pratiquaient ce type de chirurgie. Ces opérations n’étaient pas dignes de la pratique des médecins et ils les abandonnaient donc aux barbiers », poursuit le SNOF. Il fallut attendre les travaux du chirurgien français Jacques Daviel qui présenta devant l’Académie royale de chirurgie une « nouvelle méthode de guérir la cataracte par l’extraction du cristallin » en 1752. Il s’agissait d’inciser la cornée sur environ 180 degrés pour extraire le cristallin malade et, ainsi, « ne pas extraire tout le cristallin mais seulement la partie opacifiée, raconte Philippe Crozafon. C’est ce que l’on appelle l’extraction extracapsulaire. » Les divergences entre les promoteurs de l’abaissement du cristallin et ceux de son extraction continuèrent jusqu’au milieu du XIXe siècle. Quelques progrès successifs permirent de faire diminuer peu à peu les risques d’infection et les complications.

Moins d’infections grâce au principe d’extraction linéaire

L’une des avancées les plus importantes est à mettre au crédit d’Albrecht Von Graefe qui mit au point une nouvelle manière d’extraire la cataracte au XIXe siècle. Jusqu’ici, en effet, « l’opération devait être réalisée rapidement » notamment en raison de l’absence d’anesthésie et du concept d’asepsie, comme l’expliquent Marvin L. Kwitko et Charles D. Kelman dans « The History of modern cataract Surgery ». Elle exigeait en outre d’être réalisée à la lumière du jour et nécessitait que le chirurgien utilise ses deux mains avec une égale habileté afin de maintenir la paupière inférieure. Partageant le point de vue de nombreux chirurgiens selon lequel plus une incision est petite, moins le risque d’infection est grand, il dessina «ce qui est généralement admis comme étant le couteau idéal» pour réaliser une incision de la cornée dans le cadre d’une cataracte : effilé, l’outil était pointu à son extrémité et sur la face supérieure. « Il introduisit le concept de l’extraction linéaire » qui évite d’endommager l’iris ou de perdre l’humeur aqueuse, poursuivent Kwitko et Kelman. Et d’ajouter : « Cela devint le standard en matière d’extraction extracapsulaire » avec des incisions beaucoup plus petites.

Une révolution technologique inspirée de la dentisterie

C’est justement à l’Américain Charles Kelman que l’on doit l’invention du dispositif à l’origine de la révolution de la chirurgie de la cataracte. « En 1967, Kelman mit au point le premier phacoémulsificateur, explique le Docteur Crozafon, qui fut lui-même le premier à l’introduire en France en 1984. C’est en se rendant chez son dentiste pour se faire détartrer les dents que Kelman a l’idée d’utiliser le même dispositif qui repose sur une aiguille secouée de vibrations. Il lui fallut néanmoins mener de nombreuses expérimentations pour parvenir au succès et, grâce à cette technique d’ultrasons, réduire la taille de l’incision de 10 à 3,2 mm. Rappelons que le cristallin mesure entre 10 et 12 mm ! » Néanmoins, la découverte du médecin new-yorkais ne fit pas que des adeptes, surtout dans un premier temps : « Il a même été très combattu ! Il faut en effet réaliser qu’il bouleversait d’un coup des siècles de chirurgie de la cataracte », insiste le Docteur Crozafon. Peu à peu, les avantages de cette nouvelle technologie furent néanmoins reconnus : elle a en effet permis de passer aujourd’hui à une chirurgie ambulatoire avec des incisions qui mesurent seulement 2,2 mm !

Au service de l’ambulatoire

Aujourd’hui encore, « la phacoémulsification s’améliore de jour en jour et les progrès vont encore continuer, assure le Docteur Crozafon. A titre de comparaison, entre le moment où la PKE a été introduite en France et la situation actuelle, il y a la même différence qu’entre les premiers téléphones portables et les smartphones que l’on utilise de nos jours ! » L’une des plus récentes évolutions tient à l’ajout du laser femtoseconde à la phacoémulsification, ce qui permet de réaliser de façon automatique les étapes effectuées manuellement (incisions, découpe de la capsule antérieure du cristallin et pré-fragmentation du cristallin). Mais, si cela reste encore peu répandu en France, à ce jour, il y a fort à parier que, bientôt, « on disposera de machines qui combineront la phacoémulsification et d’autres technologies comme le laser », prévoit Philippe Crozafon. Concernant l’instrumentation elle-même, la forme des aiguilles utilisées évolue elle aussi : de droites, elles sont devenues courbées et permettent des déplacements en oscillation. D’autres progrès sont attendus grâce à l’informatique et aux algorithmes à l’heure où tout est de plus en plus miniaturisé. Ces évolutions successives permettent désormais d’utiliser beaucoup moins d’énergie pour beaucoup plus d’efficacité en étant de moins en moins traumatisant pour la cornée et en générant toujours moins de complications. «La chirurgie de la cataracte est le premier modèle de chirurgie ambulatoire avec la chirurgie de la main, se félicite le Docteur Crozafon. Aujourd’hui, 90% des cataractes sont faites en ambulatoire. Si l’opération de la cataracte est devenue la plus pratiquée, c’est grâce à la phacoémulsification.» Ce qui en fait également l’une des plus sûres.

L’alternative au cristallin cataracte

 

Particulièrement incontournables dans le cadre de la chirurgie de la cataracte, les implants sont néanmoins d’une très grande diversité. Les implants intraoculaires sont parfois la seule alternative pour corriger un défaut de la vision. Grâce aux évolutions dont ils ont bénéficié ces dernières années, ils peuvent s’adapter aux besoins et aux caractéristiques de chaque patient.

 

On recourt aux implants intraoculaires dans le cadre d’une chirurgie de la cataracte : « La cataracte est une opacification du cristallin, cette lentille qui intervient dans la mise au point de l’image sur la rétine », explique le Pr Christophe Baudouin, chef de service à l’Hôpital des Quinze-Vingts, à Paris. L’implant est destiné à remplacer le cristallin opacifié. La majorité des cas de cataracte sont dus à la dégénérescence du cristallin. En effet, avec le vieillissement, le cristallin devient de moins en moins transparent : il jaunit et durcit. Ce phénomène physiologique ne peut se résorber que par la chirurgie. L’implant restaure les propriétés réfractives du cristallin à l’exception de l’accommodation. Mais il peut aussi corriger la plupart des anomalies réfractives préexistantes.

L’implant ressemble à une sorte de lentille de contact mais que l’on place à l’intérieur de l’œil. Il est composé de deux parties. La partie active – ou optique – est ronde et mesure environ 6 mm de diamètre. C’est elle qui vient remplacer le cristallin. Les haptiques, sortes d’anses qui maintiennent le centrage de l’implant dans l’œil, composent l’autre partie. Au total, les implants mesurent entre 11 et 13 mm. L’intervention consiste à ouvrir la capsule antérieure du cristallin pour émulsifier le cristallin (voir le chapitre sur la phacoémulsification) avant d’installer l’implant.

Si la chirurgie de la cataracte qui consiste à enlever le cristallin existe depuis l’Antiquité, c’est au XVIIe siècle qu’un premier progrès notable concernant l’extraction de la cataracte eut lieu avec la mise au point d’une technique semi-moderne. Mais, « si la problématique de la vision est connue depuis très longtemps, auparavant, le seul moyen de compenser la perte du cristallin était de porter des gros verres de lunettes, explique le Professeur Baudouin. En effet, si l’on connaissait bien le besoin de mettre un dispositif à l’intérieur de l’œil, on ne disposait pas encore de solution technique pour cela. » Et c’est finalement au hasard que l’on doit la découverte de ladite solution. En effet, durant la Seconde guerre mondiale, le médecin britannique Harold Ridley s’occupait de soigner les pilotes de la Royal Air Force. « Cet ophtalmologiste avait pour charge de retirer les éclats de cockpits que certains recevaient dans les yeux. Or, vers 1940-1941, il s’est aperçu que les cockpits étaient fabriqués dans une sorte de plexiglas, le polyméthacrylate de méthyle (PMMA) et que ces éclats étaient bien tolérés par l’œil humain. Cette découverte d’un matériau toléré était d’autant plus importante qu’à l’époque, on retirait le cristallin mais on ne le remplaçait pas », poursuit Christophe Baudouin. C’est durant les années cinquante que l’on vit les premières personnes opérées de la cataracte recevoir un implant. Toutefois, les implants connurent ensuite une période marquée par peu d’innovations et ce, jusque dans les années quatre-vingt. « Il faut reconnaître que ni les implants ni la technique chirurgicale n’étaient au point : l’implant pouvait ainsi être posé devant l’iris, relate le Professeur Baudouin. Or, il faut savoir que le succès de l’implant lui-même est complétement interdépendant de la technique chirurgicale : il est nécessaire d’enlever la cataracte mais de garder la capsule dans la chambre postérieure. »

Réduire les complications

La décennie quatre-vingt fut décisive pour la chirurgie de la cataracte suite à l’invention de la phacoémulsification et à l’utilisation des ultrasons. Ces avancées permettent d’opérer grâce à une incision de 2 mm, là où l’œil était auparavant ouvert sur 180 degrés. Les industriels ont donc travaillé sur des matériaux plus souples. Ainsi vit-on apparaître les implants en silicone à partir de 1984. Suivirent ensuite des matériaux hydrophiles biocompatibles et très souples. Mais restait la principale complication post-chirurgicale : l’Opacification de la capsule postérieure (OCP). En effet, selon le type d’implant (matériau, dessin), la chirurgie (recouvrement de la périphérie de l'implant par la capsule antérieure) et le patient lui-même (traitements associés, âge etc.), une sorte de voile peut se développer sur la capsule postérieure, ce qui nécessite un traitement au laser. Une préoccupation commune des chirurgiens et des industriels a donc été de diminuer au maximum cette OCP. Ainsi furent mis au point les premiers implants acryliques hydrophobes qui génèrent beaucoup moins d’OCP que les autres matériaux. C’est d’ailleurs le matériau le plus utilisé encore aujourd’hui. De même, les progrès réalisés sur la taille de l’incision permettent de ne plus faire de suture. Toutes ces avancées diminuent non seulement le risque d’infection mais autorisent également une récupération visuelle meilleure et plus rapide. Par ailleurs, grâce à des mesures préopératoires réalisées avec des biomètres optiques, chaque patient a désormais un implant parfaitement calculé selon la puissance de son œil et son besoin de correction réfractive. Ce sont d’ailleurs sur les biomètres que portent aujourd’hui les efforts. Concernant l’implant lui-même, il est désormais à bords carrés, ce qui permet d’avoir une meilleure adhésion et aide à prévenir la migration cellulaire de la partie antérieure vers la partie postérieure de l’implant. En outre, les matériaux des implants cumulent à la fois capacités optiques et réfractives. Dans les années deux mille, on assista également à l’émergence d’un dessin de l’implant monobloc puis à l’intégration de pigments absorbant la lumière bleue qui se rapprochent des propriétés du cristallin, lequel jaunit au fil des années pour filtrer la lumière bleue nocive. Désormais, l’implant filtre partiellement la lumière bleue, une fonction qui vient s’ajouter au filtre UV.

Des capacités toujours plus vastes

Depuis quelques années, apparaissent des implants toriques et multifocaux. Les premiers permettent de corriger les anomalies de courbure de la cornée responsables de distorsions de l’image rétinienne à toutes les distances (patients astigmates). Ils nécessitent une pose particulière, selon un axe bien précis qui détermine l’efficacité et la puissance de l’action de ce dispositif. Cette exigence technique, notamment en préopératoire, peut représenter aujourd’hui encore un certain frein à leur développement. De même, des implants multifocaux et multifocaux toriques sont développés. Contrairement aux implants monofocaux (qui permettent la mise au point à toutes les distances : de loin, intermédiaire ou de près), les implants multifocaux offrent non seulement une correction optique stable dans le temps mais corrigent aussi la plupart des défauts visuels associés et évitent, dans l’immense majorité des cas, le port de verres. Les implants multifocaux toriques permettent, eux, de corriger l’astigmatisme et la presbytie.

 

 

Myopie, astigmatisme, presbytie, hypermétropie : quelles différences ?

L’astigmatisme est une anomalie de la vision due à une irrégularité de la courbure
de l’œil donnant une vision déformée des images.

L’hypermétropie est une anomalie de la vision entraînant la formation de l’image en arrière de la rétine et non sur elle. Le sujet hypermétrope voit en général mieux de loin que de près.

La myopie est le contraire de l’hypermétropie. C’est une anomalie de la vision entraînant la formation de l’image en avant de la rétine. Le sujet myope voit en général bien de près et mal de loin.

La presbytie est une anomalie de la vision due au vieillissement du cristallin qui devient moins souple : le cristallin accommode plus difficilement et le patient voit de moins en moins bien de près.

(Source : Société française du glaucome)

Au service de la cornée

 

A l’origine préconisés dans le traitement de la myopie, les anneaux intra-cornéens sont aujourd’hui utilisés pour traiter certains kératocônes modérés, lorsque les corrections optiques sont insuffisantes et pour éviter une greffe de cornée.

 

Les anneaux intra-cornéens interviennent dans le traitement de certains kératocônes. En effet, cette pathologie ne touche que la cornée. Si l’on ne connaît pas très bien son origine (à la fois génétique et environnementale), on connaît bien son développement puisque le kératocône se manifeste par une déformation en cône de la cornée, laquelle entraîne une altération de la transmission des images et de la lumière et donc une altération de la vision. Dans la plupart des cas, le kératocône commence à la puberté et évolue jusque vers l’âge de 30-40 ans environ, parfois plus, avec différents stades de déformation, les plus sévères pouvant entraîner une déficience visuelle profonde.

 Les anneaux intra-cornéens reposent sur la théorie selon laquelle on aplatit la cornée centrale lorsque l’on épaissit la périphérie de la cornée. Ils ont pour but d’essayer de régulariser une cornée déformée. Ils sont en Polyméthacrylate de méthyle (PMMA), plus connu sous son premier nom commercial, le plexiglas. Le choix de l’anneau que l’on implante dépend de certains paramètres de la cornée qui vont dicter le choix de la stratégie chirurgicale. En effet, les anneaux ont des épaisseurs différentes selon l’importance de la déformation cornéenne. A noter que l’on peut implanter les anneaux de façon symétrique ou asymétrique. Après l’implantation, le patient devra le plus souvent porter des lunettes, voire des lentilles qui permettront une correction optimale.

« La première expérimentation des anneaux date des années quatre-vingt, explique le Pr Pierre Fournié qui exerce au CHU de Toulouse. Leur application était alors réfractive pour corriger la myopie. » A l’époque, la zone optique de l’anneau mesurait 7 mm de diamètre. Les anneaux avaient une section hexagonale : il ne s’agissait pas d’un anneau circulaire mais de deux segments d’anneaux de 150 degrés de longueur d’arc, ce qui est encore le cas aujourd’hui. Après cette période d’expérimentation, les anneaux furent ensuite diffusés dans les années quatre-vingt-dix pour corriger des myopies faibles à modérées. Toutefois, leur indication fut peu à peu abandonnée en raison du développement, à la même époque, des lasers excimer qui offrirent alors une plus grande précision pour corriger la myopie. L’indication des anneaux dans la myopie est aujourd’hui rare. C’est au Pr Joseph Colin que l’on doit leur retour en grâce puisque c’est lui qui préconisa le recours aux anneaux dans le traitement du kératocône. Dès 1997, en effet, il constata que ce dispositif permet d’aplatir le centre du kératocône et de régulariser la cornée. « L’idée est de faire une topographie cornéenne afin de constater les irrégularités induites par le kératocône, poursuit le Professeur Fournié. Il s’agit, en implantant des anneaux, de créer un nouveau limbe cornéen et ainsi une nouvelle zone optique centrale moins déformée. Donc, non seulement le dispositif permet toujours de corriger la myopie et l’astigmatisme mais aussi les aberrations optiques kératocôniques ».

Une technique qui a fait ses preuves

L’implantation de l’anneau doit se faire à environ 75-80 % de l’épaisseur cornéenne. « Les lasers femtosecondes « bistouris » dont nous disposons aujourd’hui permettent d’être extrêmement précis et extrêmement rapide. La création du tunnel cornéen dure quelques secondes et il n’y a plus qu’à positionner les anneaux dans la cornée, résume Pierre Fournié. Les anneaux redistribuent les contraintes mécaniques et entraînent une amélioration progressive de la forme de la cornée. » A noter également que les anneaux ont très rarement besoin d’être changés, d’autant plus que leur matériau est biocompatible et qu’il n’y a donc pas de rejet. Cependant, certaines cornées ne se laissent pas très bien corriger. C’est pourquoi, aujourd’hui encore, on n’implante des anneaux que sur des kératocônes modérés. Dans les formes les plus sévères où il n’y a pas de place pour mettre les anneaux, il faut recourir à la greffe (voir le chapitre consacré à la greffe de cornée). Au cours des années deux mille apparurent de nouveaux implants qui mesurent 6 mm de zone optique avec une section de coupe ovalaire. Ils permettent de se rapprocher du centre du kératocône et donc de gagner en efficacité. Plus encore, les améliorations enregistrées ces dernières années ont permis de personnaliser les anneaux et de gagner en adaptabilité à la cornée à traiter. S’il existe quelques cas de complication (infection de surface, implantation non optimale, extrusion, réaction allergique…), ceux-ci restent rares. En effet, la technique reste de surface, ce qui représente un bénéfice important pour le patient : « Dans 80 % des cas, on constate une amélioration de l’acuité visuelle ou, a minima, de la qualité de vision, confirme le Professeur Fournié. Mais un inconvénient demeure puisque si l’anneau est invisible, en vision nocturne, la lumière peut toutefois traverser l’anneau et entraîner ainsi des halos et un éblouissement. Une neuroadaptation naturelle (c’est-à-dire une adaptation naturelle du système nerveux, N.D.L.R.) améliore cependant la tolérance avec le temps. »

A noter, par ailleurs, que les anneaux peuvent être couplés à d’autres chirurgies, notamment le
cross-linking, les implants intraoculaires ou encore le laser. Cependant, il reste quelques améliorations à apporter, comme le précise Pierre Fournié : « Il faut encore améliorer les nomogrammes pour être un peu plus prédictible. Il sera également important de travailler sur la géométrie des anneaux pour essayer d’adapter le plus possible les anneaux à la déformation cornéenne de chaque patient. »

Une révolution pour une pathologie rare

 

Les années deux mille ont vu l’émergence d’une nouvelle technique révolutionnaire pour traiter la déformation de la cornée qu’est le kératocône.

 

Le Corneal Collagen Cross-Linking (CXL), plus connu sous le nom de cross-linking, est une technique qui intervient principalement dans le traitement du kératocône (maladie rare liée à une biomécanique cornéenne anormalement faible). Associé à d’autres procédures chirurgicales, et si la pathologie n’est pas prise à un stade trop avancé, le CXL permet d’envisager la stabilisation biomécanique de la cornée et une redéfinition de sa forme par des procédures associées en vue d’une amélioration de la vision. Par exemple, si l’épaisseur de la cornée est satisfaisante, le CXL peut être accompagné de la pose d’anneaux intracornéens grâce à l’utilisation du laser femtoseconde. Pour certains patients, une retouche par laser excimer visant à régulariser la surface cornéenne est aussi associable en fonction de certains critères d’éligibilité. Cette stratégie de cornéoplastie mini-invasive séquentielle permet, dans certains cas, d’éviter une greffe de cornée chez les patients jeunes pour lesquels le port de lentilles rigides n’est pas ou plus possible.

Après avoir retiré l’épithélium de la cornée, il faut photoréticuler son collagène pour la rendre moins rigide et moins déformable. « Le but du traitement est de rigidifier le collagène en créant des ponts chimiques entre les fibrilles de collagène grâce à l’action polymérisante de la photothérapie (principe du cross-linking) » (Association Kératocône). Ainsi, on a recours à la vitamine naturelle B2 qu’est la riboflavine en raison de ses propriétés photoprotectrices. La riboflavine est infiltrée dans la cornée kératocônique puis une séance d’UVA (ultraviolets longs) est appliquée sur la cornée pendant plusieurs minutes. Suite à l’exposition à une certaine longueur d’ondes se créent des pontages moléculaires entre les fibrilles de collagène et leur environnement, c’est-à-dire la matrice extracellulaire. Ainsi, le cross-linking consiste-t-il en une réaction chimique qui va éviter (ou limiter) le processus de déformation de la cornée atteinte de kératocône et éviter la détérioration de la qualité de vision.

On doit la très récente technique du CXL au Zurichois Theo Seiler qui constata, à la fin des années quatre-vingt-dix, que son dentiste utilisait les UV pour polymériser les composants dentaires. Il eut l’idée de transposer cette technique pour polymériser les cornées pas assez dures, comme en cas de kératocône. Les travaux de Spoerl en 1998 permirent de montrer que « des cornées de porc préalablement traitées par la riboflavine, […], puis exposées à une irradiation ultraviolette gagnaient en rigidité et en résistance à l'étirement par rapport à des cornées témoin […] » (M. Labetoulle, « Une alternative à la greffe pour le kératocône ? », Journal français d'ophtalmologie). 2003 marque un tournant : cette année-là, des chercheurs de l’Université de Dresde, emmenés par Wollensack, démontrèrent que la maladie cesse d’évoluer et, même, que la cornée finit par s’aplanir légèrement, ce qui évite la greffe de cornée. Mais la technologie resta cependant à l’état d’étude, avec une cohorte clinique qui dura dix ans. Néanmoins, « dès 2007 ouvrirent des centres de référence à travers l’Europe, dont la France, et les premiers produits furent commercialisés avant même que ne soit apportée la preuve de l’efficacité formelle du CXL », explique le Pr David Touboul, qui exerce au CHU de Bordeaux et au Centre national de référence du kératocône.

Une technique jeune qui reste à optimiser

Depuis, parallèlement aux machines, c’est le protocole de traitement qui a évolué, poursuit le Professeur Touboul : « Il y a eu des variations concernant la durée d’imprégnation : le protocole conventionnel prévoit une imprégnation de la riboflavine pendant trente minutes puis une exposition de trente minutes, soit une heure de traitement. Depuis quatre à cinq ans, des protocoles encore en cours de validation préconisent la même dose de vitamine mais dans le cadre d’un processus accéléré. Le protocole le plus serré restreint le temps d’imprégnation à dix minutes et le temps d’irradiation à trois minutes avec une irradiance multipliée par dix ! Les machines ont donc évolué pour prendre en compte cette accélération du CXL ». Parallèlement, des recherches ont été menées pour tenter d’éviter d’ôter l’épithélium, un geste qui reste douloureux en post-opératoire. Des solutions de riboflavine transépithéliales ont donc été élaborées pour permettre à la molécule de passer. Si cette alternative est moins douloureuse, la rigidification est cependant un peu moins profonde et l’efficacité moins satisfaisante. En 2013, apparut un dispositif utilisant un courant très basse tension pour faire pénétrer la solution dans la cornée (iontophorèse). Aujourd’hui, si la technique semble mature malgré son jeune âge, on recherche toujours son optimisation, notamment par le biais de l’imagerie (CXL guidé par topographie cornéenne). Ainsi, les prospections sont encore nombreuses pour optimiser les techniques afin d’élaborer les meilleures produits réticulants et de parvenir à l’optimisation de leur répartition. Il s’agit de trouver la technique la moins douloureuse et la plus efficace (via le monitoring notamment) mais aussi de s’assurer que la riboflavine est bien la meilleure solution. C’est pourquoi des travaux de recherche sont menés avec d’autres molécules.