Une aide technologique de plus en plus sophistiquée au bloc

 

Pr Francis Bonnet, Chef de service d’anesthésie-réanimation, Chef du pole Thorax Voies Aériennes Hôpital Tenon (Paris), Président de la Société française d’anesthésie-réanimation (SFAR)

Moins d’agents anesthésiques et moins d’effets secondaires pour une récupération toujours plus rapide des patients. Avec la maîtrise des risques, c’est l’autre objectif poursuivi par les anesthésistes et tous les acteurs, industriels et chimistes. Après avoir, au fur et à mesure de son développement, permis à la chirurgie de prendre son envol, l’anesthésie participe à l’effort général de réduction de l’impact des interventions sur les patients.

Que de chemin parcouru pour en arriver là ! Une première et longue période du développement de l’anesthésie a été consacrée à la découverte des agents anesthésiques (éther, morphine, chloroforme, curare, gaz halogénés…), de leur dosage et de leur utilisation pour atteindre le résultat souhaité, le prolonger et ainsi permettre des interventions chirurgicales de plus en plus longues…

Mais depuis plusieurs décennies maintenant, les progrès et la finesse d’utilisation des agents anesthésiques doivent beaucoup aux dispositifs déployés autour de l’acte lui-même pour doser puis surveiller et mesurer l’état du patient. L’anesthésiste, qui exerce un acte au risque très maîtrisé, mais la plupart du temps fatal lorsqu’il survient, dispose maintenant d’un véritable tableau de bord des paramètres du patient. Et plus que surveiller, il a maintenant les moyens d’intervenir à tout moment pour rectifier la situation et coller au plus près des besoins de chaque patient.

Moniteur de surveillance, ventilateur, analyseurs, appareil d’hémodynamique, appareil visant à compenser les défaillances du cœur ou des poumons… L'anesthésiste dispose au bloc opératoire d'une aide technologique de plus en plus sophistiquée. Et l’innovation poursuit sa route pour continuer à faire baisser les risques de cet acte essentiel pour la chirurgie qui n’est toujours pas vécu comme banal par les patients.

Réanimation : des techniques et des hommes

 

Pr Jean-Paul Mira, Chef de l’unité de soins intensifs de l’Hôpital Cochin (Paris), Président de la Société de réanimation de langue française (SRLF)

La réanimation est une spécialité très récente qui prend en charge les patients les plus graves présentant une ou des défaillances d’organes qui mettent en jeu leur pronostic vital. Paradoxalement, le grand public connaît peu la réalité de son exercice quotidien malgré une médiatisation extrême dont elle a pu faire l’objet récemment : prise en charge des traumatisés ou des victimes d’attentats, des patients atteints d’infections épidémiques (Ebola, grippe etc.), des grands prématurés etc. Que se passe-t-il derrière les portes à code qui contrôlent l’entrée des services de réanimation ? Bien entendu un peu de réanimation (au sens anglo-saxon de ressuscitation, c’est-à-dire de la réanimation cardio-respiratoire), mais surtout de la médecine intensive, de la médecine aiguë, c’est à dire la prise en charge des conséquences à court, moyen ou long terme des évènements initiaux (traumatisme, infections, arrêt cardiaque, coma, détresse respiratoire, intoxication etc.). La liste serait longue et recouvre l’ensemble du champ médical.

La réanimation a d’ailleurs des rapports étroits et intriqués avec les autres spécialités médicales et chirurgicales. D’un côté, en effet, elle bénéficie des avancées thérapeutiques des autres spécialités (par exemple, stent coronaire, radiologie ou neurologie interventionnelles) pour la prise en charge de ses propres patients. D’un autre côté, elle permet le progrès médical en assurant « le service après-vente » des autres spécialités. Que serait, en effet, la transplantation d’organes, le traitement des insuffisants cardiaques, rénaux, respiratoires, des immunodéprimés sans une réanimation efficace et performante ?

C’est dans le domaine des dispositifs médicaux qu’ont eu lieu les grands progrès des dernières décennies qui font aujourd’hui des services de réanimation des unités essentielles au développement d’un hôpital et à sa survie face aux défis de la médecine de demain. Le traitement en ambulatoire va devenir la norme, l’hospitalisation traditionnelle n’étant réservée qu’aux patients les plus fragiles, fortement susceptibles d’avoir recours à la réanimation. Grâce aux multiples moyens techniques présents en réanimation (ventilateurs, hémodialyseurs, circulations extracorporelles) qui se sont miniaturisés et simplifiés, ces patients sont assistés en toute sécurité et peuvent être transportés facilement à l’intérieur de l’hôpital ou vers des hôpitaux de référence. Leur surveillance se fait par un monitoring qui doit être modulable en fonction des besoins du patient et pour lequel un système d’information « métier » doit permettre de relier tous les systèmes d’assistance et de conserver les données. A l’époque des big data, la réanimation ne peut pas se priver d’un tel outil, pour offrir demain la médecine intensive personnalisée dont ont besoin les patients.

Si l’anesthésie et la réanimation sont indissociables et partagent des origines communes, ce sont aujourd’hui deux disciplines bien distinctes qui ont connu des évolutions importantes, notamment au cours des soixante dernières années.

 

Histoire de l’anesthésie : mieux endormir pour moins souffrir

Discipline à risque s’il en est, l’anesthésie a été bouleversée par le développement spectaculaire d’innovations après la Seconde Guerre mondiale. Alors qu’au début du XIXe siècle, la douleur est considérée nécessaire pour guérir, que les interventions sont rares et la mortalité forte, les anesthésies actuelles sont banalisées pour tout type d’intervention. Sécurisées et mini-invasives, elles permettent désormais aux patients de rentrer chez eux plus rapidement et de mieux récupérer.

L’émergence de l’anesthésie va de pair avec le développement de la chimie à la fin du XVIIIe siècle. Dès 1772, le chimiste anglais Joseph Priestley découvre les propriétés anesthésiques du protoxyde d’azote. Mais il faut attendre 1864 pour que ce gaz hilarant soit utilisé comme technique d’anesthésie par inhalation. L’histoire de l’anesthésie est d’ailleurs déjà entamée : en 1846, le dentiste américain Thomas Morton réalise la première anesthésie à l’éther. En 1908, Louis Ombrédanne, chirurgien pédiatre français, met au point le premier appareil permettant de régler la concentration d’éther délivrée au patient et confectionné avec une vessie de porc dans laquelle s’effectue le mélange de l’air atmosphérique et de l’éther. Ce mode d’anesthésie sera utilisé en France jusqu’au début des années soixante-dix. Si, dès 1860, le physiologiste français Claude Bernard – qui a proposé l’anesthésie combinée associant morphine et chloroforme (anesthésie balancée) – découvre les vertus du curare, son observation ne servira qu’en 1942, date à laquelle un dérivé purifié extrait des plantes à curare rapportées d’Amazonie est introduit en anesthésie. Pendant ce temps, l’anesthésie intraveineuse, introduite, en 1872, par le chirurgien bordelais Cyprien Oré, se développe avec les barbituriques intraveineux dès 1935.

Une discipline à part entière

Dans les années soixante, alors que les vapeurs halogénées permettant le maintien l’anesthésie
se développent, les techniques et les appareillages se perfectionnent. Moins toxiques, les anesthésies peuvent se prolonger, ouvrant le champ à des actes opératoires jusqu’alors impossibles. Après la Seconde Guerre mondiale, l’anesthésie devient une discipline médicale autonome, à laquelle est adjointe la réanimation. Les progrès pharmacologiques permettent de mener des études d’impact de l’utilisation des drogues, diminuant de fait accidents et erreurs de dosage. Des années cinquante à soixante-dix, les équipements biomédicaux se développent et se sophistiquent, ce qui améliore la surveillance de l’anesthésie. Des moniteurs permettent désormais d’obtenir les paramètres vitaux des patients de manière continue. Cela permet d’ajuster les doses d’anesthésiques de manière de plus en plus personnalisée et efficiente. D’abord basiques, ces moniteurs s’enrichissent bientôt de très nombreux modules complémentaires fournissant autant d’informations qui aident les anesthésistes à mieux gérer l’endormissement et le réveil.

Vers plus de contrôle et de sécurité

L’arrivée, dans les années quatre-vingt, de l’informatique à l’hôpital a permis d’améliorer la sécurité et la surveillance. De plus en plus, se développent les systèmes d’information d’aide aux anesthésies pour remplacer la feuille de suivi opératoire. Ces logiciels connectés et intelligents collectent les données nécessaires aux anesthésies et enregistrent les résultats délivrés par les moniteurs, les ventilateurs et autres DM en temps réel, permettant aux anesthésistes d’avoir une photographie complète et immédiate de l’état de leur patient. 

On parle aujourd’hui de stations d’anesthésie, lesquelles comprennent toute la chaîne des dispositifs de cette discipline. Avec l’apparition de l’anesthésie à objectif de concentration et de la surveillance de la fonction cérébrale (EEG simplifié), la tendance est en effet, depuis une dizaine d’années, de délivrer en permanence la concentration efficace d’anesthésique (ni trop, ni trop peu) aux patients afin que ceux-ci se réveillent et récupèrent le plus rapidement possible, en évitant au maximum les effets secondaires. En trente ans, la sécurité s’est améliorée considérablement avec l’obligation de la consultation d’anesthésie, les salles de réveil, les appareillages et l’assurance qualité. Le nombre d’anesthésies a été multiplié par deux tandis que les complications liées ont fortement diminué. En effet, selon une enquête conjointe de la Société française d’anesthésie-réanimation (SFAR) et de l’Inserm, publiée en 2006 dans le journal Anesthesiology, le nombre de décès directement liés à une anesthésie est de 0,69 morts pour 100 000 actes réalisés. L’anesthésie est aujourd’hui une pratique très sûre pour laquelle tous les risques, sans être écartés, sont étroitement contrôlés.

Réanimation : une discipline éthique et technique

Longtemps réservée aux pathologies respiratoires, la réanimation a peu à peu été utilisée pour de nombreuses indications. Ces dernières années, cette discipline, originellement essentiellement technique, a fait l’objet de nombreuses évolutions éthiques. Au début des années cinquante, d’importantes épidémies de poliomyélite ravagent l’Europe du Nord. Les médecins sont contraints d’utiliser massivement la ventilation mécanique prolongée pour éviter que les malades ne meurent par asphyxie à cause de la paralysie de leurs muscles respiratoires. Seule une chaine de solidarité permet alors d’assurer une ventilation manuelle permanente des patients… Jusqu’à l’apparition de la ventilation mécanique autonome avec l’invention du respirateur conçu par Carl Gunnar Engström dans les années cinquante qui remplace les poumons d’acier insuffisamment efficaces. D’abord présente au sein de services disparates, la réanimation s’autonomise en France, à la fin des années cinquante, et les premiers services indépendants de réanimation apparaissent, bien qu’elle soit réservée à quelques pathologies, notamment respiratoires et infectieuses.

Du début des années soixante-dix à la fin des années quatre-vingt, avec l’avènement des techniques paracliniques d’investigation, invasives ou très invasives, de plus en plus de maladies graves sont prises en charge (pneumopathies aiguës graves, insuffisances rénales ou hépatiques aigües) sans limite de gravité, de pronostic ou d’âge. La question de l’âge des patients a également évolué : en effet, avant 1975, l’un des sujets de controverse était de savoir s’il fallait admettre des patients de plus de 50 ans en réanimation. Ce n’est plus le cas aujourd’hui même s’il demeure des limites à la poursuite de la réanimation. Les innovations s’accélèrent : mode de ventilation, oxygénation prolongée par circulation extracorporelle avec mise au repos des poumons, méthodes invasives d’exploration basées sur des sondes cardiopulmonaires… La réanimation est désormais une discipline à part entière avec un cursus universitaire propre d’enseignement et de recherche. La France est à la pointe en la matière et les premières normes et recommandations sont mises en place pour homogénéiser les pratiques et améliorer la sécurité. Et, alors que les premiers lits de surveillance continue sont créés, de nouvelles techniques non invasives apparaissent : échographie, doppler au lit du malade, études hémodynamiques…

Le chantier de l’éthique

En 1988, la loi Huriet-Sérusclat sur les recherches biocliniques impose d’obtenir le consentement éclairé d’un sujet avant de l’inclure dans un protocole de recherche : elle ouvre la voie à une meilleure prise en compte de la qualité de l’information et de la dignité des malades et de leurs proches. En 2002, la loi Kouchner sur les droits des malades ouvre le débat de la « moralisation » de la fin de vie et de la limitation ou de l’arrêt des thérapeutiques actives en réanimation. La loi Léonetti de 2005 sur la fin de vie autorise ensuite l’adoption de nouvelles recommandations dans le but d’homogénéiser les pratiques au sein des services (concertation organisée entre médecins et soignants, information claire des familles avant toute prise de décision etc.). Enfin, les services de réanimation, qui ont longtemps fonctionné en vase clos, sont peu à peu ouverts à l’entourage jusqu’à atteindre, dans certains cas, des heures de visite allant jusqu’à vingt-quatre heures sur vingt-quatre. Cette évolution paye : les professionnels de santé constatent que cela facilite les soins et réduit le stress du personnel soignant. « En quarante ans, le visage de la réanimation a totalement changé, conclut Alain Mercat, PU-PH au département de réanimation médicale et médecine hyperbare du CHU d’Angers. Nous pouvons aujourd’hui améliorer la suppléance d’organes des patients, y compris des plus âgés, des plus jeunes et des polypathologiques ».

 

Simuler les erreurs pour mieux les prévenir

L’anesthésie est une discipline médicale paradoxale : les incidents et accidents y sont rares mais leur gravité potentielle les rend redoutables. Alors, s’inspirant des disciplines à haute technologie (aviation civile, industrie nucléaire) où les facteurs humains et organisationnels sont, là aussi, la cause la plus fréquente des accidents, la discipline a été pionnière dans la mise en place de la simulation au sein de sa formation initiale et continue.

 

Réanimation néonatale : réparer les tout petits

La réanimation néonatale naît en Afrique du sud en 1959 : pour la première fois, des médecins « appliquent à des nouveau-nés victimes de tétanos néonatal une technique de réanimation respiratoire faisant appel à un appareil de ventilation mécanique, prodiguée aux enfants par l’intermédiaire d’une trachéotomie » (« Contexte historique de l’émergence des soins palliatifs en période néonatale », F. Gold et U. Simeoni, in « Soins palliatifs chez le nouveau-né »). En France, Gilbert Huault (1932-2013) ouvre la première réanimation pédiatrique à l’hôpital Saint-Vincent-de-Paul en 1964. Au cours de la décennie suivante, des techniques de traitement mini-invasives des nouveau-nés apparaissent (techniques de pression expiratoire positive, EEG d’amplitude, monitorage de l’index de perfusion etc.) tandis que les dispositifs se miniaturisent (sondes, cathéters). En 1970, 80 % des prématurés (poids inférieur à 1200 grammes) atteints de détresse vitale mouraient. Dix ans plus tard, 80 % survivent dans de bonnes conditions. Entre 1980 et 2000, deux nouvelles techniques majeures révolutionnent la prise en charge des détresses respiratoires : la corticothérapie prénatale de maturation pulmonaire fœtale et l’instillation trachéale de surfactant exogène. Aujourd’hui, les réanimateurs sauvent des bébés de 500 grammes.

Clef de voûte de la ventilation artificielle

 

Dispositif médical permettant de compenser la ventilation insuffisante des patients en réanimation, le respirateur a énormément évolué depuis les premiers poumons d’acier. Il fait aujourd’hui partie intégrante des services de réanimation.

 

Un respirateur de réanimation permet de suppléer la fonction pompe de l’appareil respiratoire afin d’insuffler activement l’air dans les poumons du patient, lesquels, lors d’une réanimation, se vident passivement. En effet, en réanimation, le patient est soit intubé au moyen d’une sonde endotrachéale ou nasale, soit trachéotomisé, soit sous Ventilation non invasive (VNI). Le respirateur de réanimation sert à pratiquer ce qu’on appelle la ventilation artificielle, permettant de pallier toute incapacité respiratoire en maintenant l’hématose et en faisant passer de l’oxygène dans le sang en quantité suffisante. Les patients admis en réanimation ont en effet, par définition, une ventilation inefficace ou absente. Ainsi, les respirateurs de réanimation sont utilisés en post-opératoire, dans les situations de coma mais aussi pour pallier les détresses respiratoires (insuffisance respiratoire, œdème pulmonaire aigu, intoxication médicamenteuse volontaire, infarctus etc.), en cas de pneumopathie (infections) ou de traumatisme thoracique.

Le respirateur est une pompe servant à insuffler une Le respirateur est une pompe servant à insuffler une certaine quantité de gaz aux poumons d’un patient pendant une durée déterminée à une fréquence donnée. Cette pompe est constituée de quatre éléments : un générateur de gaz, un circuit patient composé de deux branches (insufflation et exsufflation), d’une valve d’expiration ne s’ouvrant que pendant le temps d’expiration et un système de commande, pour la technologie dite à valve. Une technologie plus récente propose un débit en continu via un circuit monobranche qui intègre une fuite intentionnelle pour l’expiration du patient. Par ailleurs, aujourd’hui, tous les respirateurs sont équipés d’un système d’alarme et d’un système de sécurité. Les professionnels de santé sont donc dans l’obligation de valider toutes les données qu’ils paramètrent dans la machine. La quasi-totalité des ventilateurs actuels (exceptées quelques machines destinées aux urgences) recourt à des gaz muraux et fonctionne directement en générateur de débit à l’aide de valves électromagnétiques proportionnelles.

Le concept de respiration cellulaire fut introduit en 1781 par Antoine Laurent de Lavoisier, chimiste, philosophe et économiste français, qui démontra que la respiration est en réalité une combustion assurée par l’oxygène (O2), qu’il baptisa « air pur de Priestley ». En 1828, le médecin français Jean-Jacques-Joseph Leroy d’Étiolles découvrit la notion d’urgence. « Mettant en garde contre l’usage de trop grands volumes susceptibles de provoquer un pneumothorax, il décrivit le volotraumatisme (ventilation mécanique trop brutale) et recommanda l’usage d’un soufflet gradué en fonction de la taille du patient », explique Claude Chopin, ancien chef de service réanimation au CHRU de Lille, dans son article intitulé « L’histoire de la ventilation mécanique : des machines et des hommes ». En vertu du principe de précaution, l’Académie de médecine française et The Royal Humane Societies durent néanmoins condamner l’utilisation de cette technique du soufflet en raison de l’apparition de premiers effets indésirables dès 1891 et cela, malgré le succès auprès des patients drogués victimes d’overdose.

Spiroscope et poumon d’acier

Dès 1876, un médecin français, Eugène Woillez, rapporta pourtant que « le meilleur moyen de
rétablir la respiration chez les asphyxiés serait la dépression extérieure appliquée sur les parois thoraciques pour obtenir leur dilatation […] »
. Il valida son hypothèse en construisant ce qu’il appela un spiroscope, un modèle de poumon isolé suspendu à l’intérieur d’un bocal de verre dont une paroi était mobile. Il fallut toutefois attendre 1929 pour que cette technique se déploie. Les frères Cecil et Philip Drinker, respectivement physiologiste et ingénieur américains, inventèrent le poumon d’acier. Ce gros appareil en forme de tube, qui peut faire monter ou descendre la pression via un système de pompe, permet la ventilation des poumons. Il fut largement utilisé lors des grandes épidémies de poliomyélite qui sévirent aux États-Unis (1948) et en Europe (1952). Mais l’appareil ne permettait pas de réduire l’importante mortalité (plus de 80 % des malades). C’est l’anesthésiste danois et fondateur des soins intensifs, Ibsen Bjorn, qui eut l’idée d’associer une trachéotomie à cette ventilation par voie externe, appliquant ainsi pour la première fois les deux premières recommandations de la réanimation respiratoire : fournir une aide à la ventilation mécanique et assurer la liberté des voies aériennes.

En 1907, cette technique fut améliorée par l’invention d’industriels spécialisés dans le conditionnement de l’air comprimé en bouteille et la fabrication de pompes à bière. « Heinrich Dräger conçut un appareil de ventilation alimenté par une bouteille d’air comprimé, dans lequel l’augmentation de la pression à l’intérieur du circuit inspiratoire actionnait un astucieux système de bielles animées par un soufflet et fermait à plus de 20 cm l’arrivée du gaz permettant ainsi l’expiration. Cette dernière était ”aidée” par une pression négative active de moins 20 cm », décrit encore Claude Chopin. Ce premier ventilateur fonctionnait donc selon le principe d’une pression contrôlée, qu’on appela par la suite ventilateurs barométriques, volumétriques ou à fréquence fixe. Dans les années qui suivirent, plusieurs modèles virent le jour, permettant d’améliorer le dispositif initial. En 1928 fut mis au point un poumon d’acier par Drinker et Shaw. Ce dispositif permit de réaliser les premières ventilations mécaniques de longue durée au profit des malades atteints de poliomyélite et souffrant d’une paralysie du diaphragme. En 1940, l’appareil utilisa l’énergie électrique et, dix ans plus tard, apparut le premier ventilateur capable de séparer le circuit malade du circuit machine en utilisant le principe de la caisse-outre, un contenant de taille variable (allant de 1,5 à 1 000 litres) constitué d’une caisse en carton ondulé et d’une poche étanche et souple et utilisé pour le transport et le stockage des produits liquides. 

En marche vers la ventilation mécanique moderne

Mais l’ère moderne de la ventilation mécanique ne vit le jour qu’en 1954 avec la création du premier ventilateur moderne électrique qui permit le développement de la réanimation. Grâce à ce dispositif permettant une ventilation à débit préréglé cyclée sur le temps avec une fréquence prédéterminée et disposant d’un manomètre et d’un spiromètre à ailettes, Carl-Gunnar Engström, son inventeur, releva, sur ses patients ventilés grâce à ce moyen, une mortalité de 27 % contre 80 % en temps normal ! Le succès de ce dispositif autorisa le développement et même la « normalisation technologique et la classification » des ventilateurs, selon Claude Chopin, dès la fin des années soixante. Au même moment, naquit la méthode de pression expiratoire positive (PEEP), une pression résiduelle maintenue au sein des voies aériennes lors de l’expiration et réalisée grâce à une colonne d’eau. Ce paramètre de ventilation mécanique accroît le temps pendant lequel les échanges gazeux entre alvéole et capillaire se produisent, évitant ainsi l’apparition d’atélectasies à l’issue de l’expiration. Dans les années soixante-dix, les respirateurs furent équipés de valves de PEEP, ce qui permit de mesurer en continu les pressions aériennes et les débits gazeux. « Vers les années quatre-vingt, l’idée se fit jour que la ventilation mécanique ne devait plus se concevoir comme une prothèse ventilatoire mais comme une aide ou un support à la ventilation normale. Une solution fut apportée par les servovalves qui ont permis d’améliorer l’asservissement de l’ouverture de la valve inspiratoire proportionnellement (valves dites proportionnelles) », ajoute Claude Chopin. Les dispositifs furent ensuite équipés de microprocesseurs, permettant le développement des modes à pression préréglée. Ces dernières années, les progrès ont porté sur l’ergonomie des ventilateurs et la compréhension de la physiopathologie de la ventilation mécanique et de ses effets indésirables. Cette facilité d’utilisation ainsi que l’apparition du monitorage (des larges écrans de surveillance permettant de mieux comprendre les interactions patient–ventilateur) et la création de nouveaux paramètres, tels que la mesure de la capacité résiduelle fonctionnelle, la mesure du travail respiratoire et la réalisation de courbes pression-volume, ont permis de perfectionner les appareils de plus en plus adaptés à la physiopathologie du malade. Autant d’évolutions qui ont généré d’importantes améliorations en termes de morbidité et de confort.

 

À savoir

Atteinte dès ses 11 ans de poliomyélite (maladie infectieuse aiguë et contagieuse s’attaquant au système nerveux central et entraînant une paralysie irréversible), Martha Mason a passé 60 ans de sa vie dans un poumon d’acier, avant de s’éteindre en 2009, à l’âge de 71 ans. Enfermée dans un cylindre rigide et incommode de 2,13 mètres de long pesant plus de 300 kilos, la courageuse Américaine a pourtant réussi à être diplômée avec mention très bien du lycée et de l’université. Elle a même réalisé son rêve d’enfant, devenir écrivaine. Ses mémoires, intitulés « Respire », ont été publiés en 2003.

 

 Et l’avenir ?

Au cours des vingt dernières années, grâce au développement de l’électronique (capteurs de spiromètrie, manomètres, valves électromagnétiques) et de l’informatique (correction en temps réel des variables mesurées et des commandes générées), les respirateurs ont gagné en performance et en sécurité. On a donc développé des nouveaux modes ventilatoires, fonctionnant en boucle fermée, c’est-à-dire bénéficiant de façon combinée des avantages des modes en pression et des modes en volume pour un meilleur confort du patient en se rapprochant le plus possible de la respiration naturelle. Ainsi, on trouve des ventilateurs équipés d’un système de monitorage et d’asservissement de la ventilation au diaphragme. Le patient dirige sa ventilation et la machine et non l’inverse. Il s’agit sans doute de l’avenir de la ventilation mécanique.

Secourir les patients en détresse respiratoire

 

Longtemps basiques, les ventilateurs de transport sont devenus particulièrement sophistiqués depuis les années deux mille. Les évolutions technologiques ont permis d’améliorer les performances et le confort du transport mais aussi l’adaptabilité aux besoins physiologiques des patients. Initialement réservés au transport en raison de leurs modestes performances, ces dispositifs connaissent désormais une utilisation beaucoup plus large.

 

Les ventilateurs de transport sont utilisés principalement dans deux types de situation : lors de transports à l’extérieur de l’hôpital (détresse respiratoire, arrêt cardiaque, coma, polytraumatisés) et au sein de l’hôpital (malades critiques ou en soins intensifs, ventilés et devant être déplacés pour subir un examen ou une intervention complémentaire (imagerie, bloc opératoire etc.).

Au-delà du transport, ces ventilateurs sont également utilisés aujourd’hui dans différentes situations cliniques. Le principe est de suppléer partiellement ou intégralement l’activité respiratoire défaillante du patient. Cette assistance respiratoire est délivrée via une sonde d’intubation positionnée dans la trachée (ventilation invasive) ou via un masque facial ou nasal (Ventilation non invasive ou VNI). Le bénéfice de la VNI, introduite à l’hôpital dans les années quatre-vingt, est désormais clairement démontré en particulier pour les patients BPCO. Cette technique diminue la mortalité de la défaillance respiratoire en limitant notamment les complications infectieuses liées à la sonde d’intubation.

 

Le ventilateur d’urgence est, par essence, ambulatoire : il est donc plus léger et plus ergonomique que les autres ventilateurs pour être aisément transportable. Il peut fonctionner sans les gaz muraux et se caractérise par la simplicité de son interface et de ses alarmes. En outre, il est théoriquement plus facile à utiliser pour le personnel.

« Des années soixante-dix au milieu des années quatre-vingt-dix, les ventilateurs de transport étaient essentiellement des ventilateurs basiques, aux possibilités de réglage et au monitorage limités, peu confortables pour les équipes soignantes et les patients mais résistants et fiables », résume Jean-Christophe Richard, médecin réanimateur au Centre hospitalier d’Annecy-Genevois. Classiquement, ces ventilateurs ne proposaient qu’un mode contrôlé en volume (VC) fonctionnant comme un simple robinet branché sur une réserve d’oxygène pressurisé et qui s’ouvre selon la fréquence des cycles que l’on souhaite délivrer au malade. En pratique, cette ventilation contrôlée est le plus souvent mal tolérée dès que le malade entame une activité respiratoire spontanée car le débit réglé est trop faible et les cycles délivrés par le ventilateur sont imposés indépendamment de l’activité́ respiratoire propre du malade.

Des ventilateurs de plus en plus sophistiqués

L’arrivée de la technologie turbine, issue de la ventilation à domicile, a transformé les possibilités de ces ventilateurs et, par là-même, leur utilisation. Après la mise sur le marché d’appareils de deuxième génération vers 1995, apparurent au début des années deux mille les ventilateurs d’urgence de troisième génération dont certains sont également équipés de turbines. Celles-ci permettent d’autonomiser la pressurisation et ainsi d’augmenter la FiO2 une fois connectées à une source d’oxygène. Les ventilateurs disposent de fonctionnalités plus adaptées à la physiologie des patients, permettant en particulier la ventilation en pression conventionnelle ou non invasive.  « Avec les turbines, les ventilateurs d’urgence bénéficient de réglages plus sophistiqués : différents modes ventilatoires (en pression, en volume), fraction inspirée d’oxygène (FiO2, réglage de la fréquence d’oxygène), alarmes… En outre, ils peuvent être utilisés en avion, en hélicoptère ou en ambulance parce qu’il n’y a pas besoin de l’oxygène comme gaz moteur », note Jean-Christophe Richard. De plus en plus d’exemples d’innovations illustrent les possibilités croissantes de ces ventilateurs : « Avec la ventilation non invasive, le monitoring intelligent, l’oxygène haut débit et peut-être, désormais, les massages cardiaques, les ventilateurs d’urgence ne sont maintenant plus seulement destinés aux transports mais aussi aux urgences, voire aux services de réanimation. En outre, ils ont dépassé leur simple fonction de ventilation, devenant des outils de plus en plus complets et performants. »

Prise en charge de la BPCO

Une amélioration récente apportée aux dispositifs permet désormais la prise en charge de la Broncho-pneumopathie chronique obstructive (BPCO) dès l’ambulance. Pour cette maladie respiratoire chronique, dont la fréquence est à la hausse et qui est l’une des principales causes d’invalidité et de décès en France, c’est un progrès absolument fondamental. En effet, pour être efficace dans le cas d’un patient atteint de BPCO, le ventilateur « doit impérativement réunir les caractéristiques suivantes : performance des triggers inspiratoire et expiratoire […], rapidité de pressurisation avec pente restant modifiable, FIO2 réglable, spirométrie expiratoire, compensation des fuites » (« Technique de ventilation non invasive du BPCO », C. Grégoire, F. Thys). Des performances dont les ventilateurs de transport ont longtemps été dépourvues, ce qui n’est plus le cas aujourd’hui. Cette amélioration permet d’augmenter les chances de ne pas être intubé ainsi que celles de survie.

Toujours plus de paramètres

Enfin, dernière innovation en date : certains dispositifs proposent aujourd’hui des options de mesure de la pression de CO2 en fin d’expiration (eTCO2). Ce paramètre est d’autant plus important que la mesure du CO2 expiré et de ses modifications révèle de précieuses informations sur l’état du métabolisme, celui de la circulation et celui de la ventilation. Elle permet également de vérifier que l’intubation n’est pas œsophagienne.

Oxygénation haut débit et réanimation cardio-pulmonaire

Parmi ces exemples, une technologie simple et non invasive est développée sur certains ventilateurs de transport depuis environ cinq ans. L’oxygénothérapie haut débit est une technologie qui permet de délivrer des débits élevés (jusqu’à 60 litres/min) d’un mélange air-oxygène réchauffé et humidifié et dont on peut régler la concentration en oxygène. Ce mode d’administration de l’oxygène est extrêmement bien toléré et, dans certaines situations cliniques d’hypoxémie sévère, semble être aussi efficace que la VNI. Au cours de la prise en charge préhospitalière, les ventilateurs de transport sont utilisés principalement suite à la survenue d’un arrêt cardiaque. Aujourd’hui, cette circonstance, longtemps négligée, a fait l’objet de différentes innovations. Certains ventilateurs permettent par exemple de pratiquer le massage cardiaque tout en ventilant le patient. D’autres proposent un monitoring spécifique positionnant le ventilateur comme une aide à la réanimation cardio-pulmonaire. En urgence, cela reste néanmoins expérimental.

 

L’ancêtre de l’ambulance

En 1794, le chirurgien militaire Dominique Larrey créa les premières « ambulances volantes » qui accompagnaient les soldats sur le champ de bataille et prenaient en charge les blessés. Ce sont des voitures à chevaux. Quelques années après, un autre chirurgien militaire, Pierre-François Percy, fut à l’origine du concept d’ambulance médicalisée en créant un corps de « chirurgie mobile ». Tous deux sont à l’origine de la création des brancardiers militaires, en 1813.

 

Secourisme : un travail de longue haleine

Jusqu’au milieu du XXe siècle, les anesthésistes ne sont pas ou peu associés au secourisme naissant. En France, c’est la hausse des accidents de la route qui mobilise le corps médical pour amorcer une réflexion sur la mise en place d’une permanence médicale et d’une organisation permettant de se rendre chez le malade et d’assurer son transport vers l’hôpital. Les SMUR hospitaliers, dont on doit la création au Pr Louis Serre de Montpellier, sont officialisés en 1965. En 1986, l’Assemblée nationale étend le principe du Samu aux autres départements français et les dote d’un numéro d’appel unique, gratuit, départementalisé et accessible à tous : le 15.

 

Une double fonction indispensable lors des interventions chirurgicales

 

Lors d’une intervention chirurgicale sous anesthésie générale, le patient ne peut plus respirer par lui-même. Le respirateur d’anesthésie lui permet donc de respirer de manière automatique tout en délivrant le produit anesthésiant.

 

« Au cours des anesthésies générales, les patients sont fréquemment en apnée ou en dépression respiratoire, indique Jean-Louis Bourgain, chef de département bloc opératoire et du service d’anesthésie à l’Institut Gustave Roussy de Villejuif (Val-de-Marne). Les morphiniques administrés engendrent une dépression respiratoire pour contrôler la réactivité à la douleur et/ou les curares induisent une paralysie pour faciliter l’acte opératoire. Les anesthésistes doivent intuber ou poser un masque laryngé. Cela assure la liberté des voies aériennes et la ventilation des patients pendant la durée de l’anesthésie grâce au respirateur. »

L’appareil contrôle électroniquement la ventilation du patient, cyclant son inspiration et son expiration. Le mélange gazeux envoyé est composé d'oxygène, d'air ou de protoxyde d'azote. Sa concentration et son débit sont contrôlés par un rotamètre. Un agent anesthésique, contenu dans une cuve thermostatée, est vaporisé dans ce mélange insufflé au patient. Celui-ci lui parvient par une sonde reliée à un tuyau inspiratoire. Le tuyau expiratoire, quant à lui, ramène le gaz expiré et chargé de CO2 au respirateur. L’assistance ventilatoire prodiguée par le dispositif dépend de diverses modalités qui sont fonction des traitements respiratoires et chirurgicaux déterminés par les praticiens. Pour des raisons d’économie, les respirateurs d’anesthésie travaillent en circuit fermé. Les gaz expirés passent par une cartouche de chaux sodée permettant d’absorber et de neutraliser le gaz carbonique. Le gaz recyclé, complété par de l’oxygène, peut alors être renvoyé vers le patient.

Dès l’Antiquité, déjà, puis au Moyen-Âge, diverses substances d’origine naturelle sont successivement utilisées pour atténuer les souffrances lors d’interventions chirurgicales : racine de mandragore, huile composée notamment d’opium et de ciguë, solution à base de plantes telles que la belladone ou la jusquiame… Si le protoxyte d’azote, gaz essentiel dans l’anesthésie, est découvert dès 1772, il faut attendre 1846 pour que les Américains William T. Morton et John Warren l’utilisent à cette fin, une étape qui marque la naissance de l’anesthésie moderne. Deux ans plus tard, James Simpson endort la reine Victoria au chloroforme lors de son accouchement : dès lors, l’anesthésie chirurgicale au moyen de cette substance se répand très rapidement à travers le monde.

D’un gaz à l’autre

Ce n’est cependant pas avant 1880 que les ingénieurs réussirent à comprimer et à stocker des gaz, dont l’O2, dans des bouteilles sous haute pression. C’est ce procédé qui permet l’invention du respirateur. Les premiers appareils avec réinhalation de l’azote voient le jour dès 1885 mais il faut attendre 1902 pour que soit déposé, aux États-Unis, le brevet d’un appareil qui délivre plusieurs gaz à la fois (oxygène, protoxyde d’azote et éther). Les bases sur lesquelles reposent encore aujourd’hui les machines d’anesthésie sont posées. En Europe, le chloroforme est, quant à lui, préféré à l’éther comme agent anesthésiant. Si, dès cette époque, les machines peuvent fonctionner en circuit fermé (à l’image de ce qui est conçu pour les équipes de secours dans les mines), la technique n’est pas utilisée avec le chloroforme en raison de sa réaction à la chaux utilisée pour piéger le CO2. Aussi, le système sans réinhalation reste la règle. En France, c’est Louis Ombrédanne qui, le premier, met au point un inhalateur fonctionnant à l’éther (ce procédé est d’ailleurs utilisé en France jusqu’au début des années soixante). Mais le recours à l’éther n’est pas sans comporter certains risques tant pour le patient (difficulté à trouver la bonne quantité d’anesthésiant) que pour le personnel soignant qui en inhale aussi.

Sur le chemin de la mécanisation

Entre le début du XXe siècle et la Seconde Guerre mondiale, diverses innovations sont apportées tant sur les machines (débit des gaz, rotamètres etc.) que sur les substances elles-mêmes. Ainsi, dès 1936 voit-on apparaître un dispositif présentant nombre des caractéristiques des machines actuelles : circuit fermé, anesthésie multigaz, absorbeur de CO2, débitmètre, systèmes de contrôle et de sécurité. En raison des combats, la Seconde Guerre mondiale génère quant à elle son lot d’innovations, notamment en matière de portativité. Dans les années cinquante sont mis au point les premiers ventilateurs mécaniques de longue durée, ce qui permet d’abandonner les massifs poumons d’acier. Le premier, en 1952, est électrique et se caractérise par une ventilation à pression – positive ou négative – à débit préréglé et cyclé avec une fréquence prédéterminée. C’est lui qui ouvre les portes de la réanimation moderne. Les dispositifs connaissent ensuite des améliorations successives (système de venturi, pression expiatoire positive, alarmes etc.). Cette même décennie est marquée par la mise au point de systèmes centraux qui alimentent en gaz médicaux les salles de soins et les blocs opératoires, ce qui révolutionne l’organisation des hôpitaux : les médecins et le personnel infirmier n’ont plus à transporter de lourdes bouteilles de gaz sous pression. Il faut néanmoins attendre les années soixante-dix pour que ces systèmes soient généralisés dans toutes les salles de tous les établissements. Il devient également possible, grâce aux progrès réalisés sur les capacités des machines, d’agir sur la qualité de l’échange et la mesure des pressions aériennes et des bits gazeux.

La révolution de l’électronique

À partir des années quatre-vingt, le génie électronique complète et optimise la mécanique et la pneumatique des machines. Des capteurs de débit et de pression reliés à des électrovannes permettent de garantir le volume prescrit au patient quel que soit son état pulmonaire. Des paramètres de ventilation mieux adaptés au système broncho-pulmonaire des patients garantissent une continuité de la qualité de la ventilation pendant leur opération. De plus, des modalités ventilatoires telles que l’aide inspiratoire permettent d’assister le patient lors des phases d’induction, de la mise en place du dispositif ou de réveil jusqu’à l’extubation du patient en fin d’intervention. Le fonctionnement en circuit fermé impose le monitorage des gaz au patient. Les données numériques et les courbes de ventilation sont affichées en temps réel sur un écran, permettant de contrôler les paramètres ventilatoires et la concentration des gaz (O2, CO2 et agents anesthésiques). Les médecins peuvent ainsi immédiatement apporter des ajustements spécifiques au réglage de la ventilation et choisir des options de traitement adapté. Parallèlement, la fiabilité des ventilateurs s’améliore encore : moins de panne, procédures de contrôle partagées avec les fabricants, les biomédicaux et les cliniciens. Depuis 1995, le contrôle avant utilisation est légalement obligatoire et s’apparente à celui utilisé dans l’aviation.

Depuis les années deux-mille, des systèmes d’administration automatisée des agents anesthésiques ont été développés sur certaines machines. L’action des agents anesthésiques dépend de leur concentration au niveau de leur site d’action, en l’occurrence le cerveau. Le médecin prescrit directement sur l’appareil la concentration qu’il veut fixer au niveau de ce site d’action pour le patient traité. Cet objectif de concentration garantit et maintient la cible envisagée tout au long de l’intervention. L’idée est désormais de disposer de véritables stations d’anesthésie capables d’intégrer l’ensemble des paramètres nécessaires à une meilleure prise en charge du patient (anesthésie, ventilation, thérapie intraveineuse, monitorage du patient, gestion des données etc.). Par ailleurs, la maintenance des machines est aujourd’hui simplifiée grâce à la télétransmission des informations.

Système intégral et amélioration de la sécurité

Aujourd’hui, les chiffres parlent d’eux-mêmes : selon une enquête réalisée par la Société française d’anesthésie et réanimation (SFAR) et l’Institut national de la santé et de la recherche médicale (Inserm), en vingt ans, « le taux de décès liés à l’anesthésie apparaît avoir été réduit par un facteur de dix » alors même que le nombre d’anesthésies a augmenté*. En matière de sécurité, en effet, de nombreux efforts ont déjà été effectués : les étudiants en anesthésie et en réanimation bénéficient désormais de cours de simulation d’anesthésie. Certains, à l’image de Jean-Louis Bourgain par exemple, souhaitent aller encore plus loin et imaginent même la création, à l’image de l’Allemagne, d’un brevet autorisant l’utilisation des respirateurs d’anesthésie. Plus encore, d’un point de vue qualitatif, les indications ont changé, les pratiques ont évolué et la discipline s’est enrichie de préoccupations nouvelles. Le confort du patient trouve aujourd’hui toute sa place dans la prise en charge anesthésique (prévention de l'hypothermie, des nausées et vomissements de la période de réveil, contrôle de la douleur post-opératoire), une tendance qui devrait se confirmer dans le futur grâce à un arsenal thérapeutique toujours mieux adapté. Parallèlement, des efforts portent également sur la prévention de complications asymptomatiques liées aux contraintes de l'anesthésie et de la période opératoire, afin de favoriser une récupération du patient toujours plus rapide et précoce. De même, les progrès réalisés en matière de substances avec la mise au point d’agents d’anesthésie de très courte durée d'action favorisent le développement de l’ambulatoire, une priorité en France, et devraient conduire à repenser l’organisation de la structure hospitalière elle-même (sortie du bloc, salle de réveil, salle de décharge, salle d'hospitalisation, unité de réanimation chirurgicale pour les opérés à risque). Enfin, certaines recherches s’articulent aujourd’hui autour de l’intégration dans le dispositif de tous les paramètres (moniteur hémodynamique, feuille d’anesthésie, accès à un dossier patient etc.), mais aussi du numérique, de la télémaintenance (diagnostic à distance sur une machine en panne), de l’amélioration de l’hygiène et de l’optimisation du flux de travail.

 

Gaz : des anesthésiques moins dangereux et moins polluants

Dans les années soixante, les gaz halogénés remplacent l’éther et le chloroforme peu maniables, inflammables et pouvant générer des dépressions cardiaques. La tendance est aujourd’hui à l’abandon du protoxyde d’azote pour éviter d’éventuelles toxicités ainsi qu’une pollution atmosphérique.

 

Une vision du patient à 360 degrés

 

Les moniteurs de surveillance, qu’il s’agisse de l’anesthésie ou de la réanimation, servent à vérifier les fonctions vitales des patients. Les améliorations qui leur ont été apportées au cours de l’Histoire ont fait d’eux de véritables « cockpits » depuis lesquels on peut avoir une vision à 360 degrés des patients.

 

Dans les services d’anesthésie-réanimation, au bloc opératoire, en cardiologie, aux urgences, en pédiatrie, en transport médicalisé… les professionnels de santé ne sauraient se passer de ces appareils équipés d’un ou de plusieurs écrans sur le(s)quel(s) sont affichés en continu tous les paramètres physiologiques à surveiller et qui sont présents dans tous les services d’un établissement de santé. Les moniteurs de surveillance permettent en effet de surveiller l’état du patient, de guider un geste médical, de détecter et d’alarmer de manière fiable, reproductible et plus rapidement que l’analyse des signes cliniques qu’un paramètre physiologique (fréquence cardiaque et respiratoire, saturation périphérique en oxygène, température, diverses pressions internes veineuses et artérielles) a dévié des valeurs attendues. Cela permet d’en trouver rapidement les causes et d’apporter les mesures correctrices adaptées. « Les moniteurs d’anesthésie sont des moniteurs de surveillance, avec la même base que ceux de réanimation : Électrocardiogramme (ECG), pression artérielle, Saturation pulsée en oxygène (SpO2), température, explique Jean-Michel Constantin, Professeur d’anesthésie-réanimation à la Faculté de médecine de Clermont-Ferrand et responsable des réanimations au pôle de médecine périopératoire du CHU de Clermont-Ferrand. Les moniteurs d’anesthésie sont intégrés dans des “stations d’anesthésie” sur lesquelles on mesure également les concentrations d’agents halogénés, le CO2 expiré (comme en réanimation), la profondeur d’anesthésie et la curarisation. Parfois, ces moniteurs reprennent les données provenant du ventilateur. L’idée est de tendre vers un véritable cockpit depuis lequel on peut avoir une vision globale de l’anesthésie en cours ».

Il existe de nombreux moniteurs. Certains ne mesurent qu’une partie des variables physiologiques, d’autres assurent l’intégralité de la surveillance. Ces véritables ordinateurs dédiés possèdent des modules d’acquisition, intégrés ou non, des différents paramètres de surveillance recueillis sur le patient par l’intermédiaire d’un capteur spécifique à chaque signe vital. Ces modules communiquent avec une unité centrale, intégrée ou non, qui envoie les informations cliniques sur un ou plusieurs écrans de visualisation. Ainsi, le rythme cardiaque et la
respiration en réanimation sont évalués grâce à des électrodes fixées sur le thorax du patient. Ponctuellement et par intervalle, le brassard du tensiomètre mesure la pression artérielle. L’oxymètre de pouls qui se positionne sur une extrémité mesure, grâce à un capteur à infrarouge, la saturation sanguine en oxygène. Une sonde thermique mesure, elle, la température corporelle du patient. Plus spécifiquement, la fonction respiratoire et le taux de gaz carbonique éliminé sont appréciés grâce à un capnographe qui prélève ou pas un petit échantillon de gaz pour l’analyser en continu. Pour répondre à des besoins particuliers, certains moniteurs proposent des fonctions supplémentaires : imprimante intégrée, mémoire interne pour enregistrer des données complémentaires, batterie rechargeable assurant une continuité de la surveillance en cas de transport du patient, fonction d’appel d’urgence, ou encore plusieurs modes (adulte, enfant, nourrisson).

Les évolutions apportées aux machines sont indissociables de l’historique de la découverte et de la surveillance des différents paramètres : découverte de la première mesure de la pression sanguine par Stephen Hales sur un cheval en 1730, invention du sphygmomanomètre mesurant la pression sanguine de manière non invasive, en 1880, par le Viennois Siegfried Ritter von Basch… Durant la Première Guerre mondiale, l’Américain Arthur Guedel, qui enseigne l’anesthésie au sein des forces expéditionnaires américaines basées en France, identifie quatre stades distincts lors de l’induction d’une anesthésie générale à l’éther : paramètres ventilatoires, circulatoires, signes neurovégétatifs, mouvements oculaires et diamètre pupillaire. Mais ces paramètres sont encore trop imprécis. Il faut donc attendre la fin des années cinquante pour que naissent, à proprement parler, les premiers outils de monitorage permettant la surveillance des patients en continu en anesthésie (cardioscope ou électrocardioscope). Au début des années soixante, l’ECG est monitoré en continu pour la première fois avec une alarme audible de la fréquence cardiaque. Quelques années plus tard, deux médecins, Herbert Shubin et Max Harry Weil, introduisent un ordinateur dans une unité de soins intensifs à Los Angeles. « Dans les années soixante, les premiers cathéters de prise de pression invasive sont commercialisés, poursuit le Pr Jean-Michel Constantin. Ils mesurent en continu la pression artérielle pour vérifier qu’il n’y a pas d’anomalie lors de la réanimation ».

Vers des machines multiparamétriques

La découverte de ces divers paramètres permet l’évolution des machines. En effet, jusqu’à la fin des années quatre-vingt, chaque fonction nécessite un appareil : un pour l’ECG, un tensiomètre PNI (Pression non invasive), un saturomètre (SPO2) etc. En réanimation ou en chirurgie cardiaque lourde une surveillance hémodynamique invasive (pression invasive et débit cardiaque) a ensuite pu y être associée. C’est également le cas pour l’analyse des gaz de sang avec des moniteurs d’O2 et de CO2. A partir des années quatre-vingt, la surveillance des fonctions vitales de base est regroupée sur un seul et même moniteur autour des fonctions circulatoires du patient (ECG, PNI, SPO2, T). Parallèlement, la surveillance s’affine et se spécialise selon les pathologies et les environnements. Par exemple, l’analyse fine de l’ECG et des troubles du rythme cardiaque intervient en cardiologie, la surveillance cardiorespiratoire en pédiatrie, l’EEG en neurologie ou encore le monitorage de l’anesthésie au bloc opératoire. Les moniteurs se dotent d’une batterie en transport (urgence, SAMU) ou encore d’un blindage spécial en environnement IRM.

Des dispositifs intelligents

Par ailleurs, les moniteurs deviennent de plus en plus modulaires avec des fonctions et des tailles d’écran adaptées au niveau de surveillance souhaité. Aujourd’hui, si l’unité centrale se miniaturise, l’écran de contrôle intégrant de plus en plus de fonctions, ne cesse de s’agrandir. Certains moniteurs sont utilisés en réseau permettant le report d’informations d’un moniteur à un autre ou vers une centrale de surveillance pour faciliter le suivi infirmier. Ces dispositifs sont de véritables ordinateurs dédiés qui sont connectés au dossier patient informatisé de l’hôpital. Régis par des algorithmes reprenant les dernières normes de communication, ils peuvent recevoir directement au chevet du patient des images d’échographie ou toute autre imagerie susceptible d’affiner la surveillance et le diagnostic médical ainsi que les données du laboratoire. Écrans plats basse consommation, wifi, capteurs microélecroniques… : le monitorage d’aujourd’hui ne ressemble en rien à ce qu’il était à ses débuts, résume Dan Longrois, spécialiste en anesthésie-réanimation à l’Hôpital Bichat-Claude Bernard (AP-HP) : « Nous sommes passés d’une époque où l’on se contentait de signes cliniques - main pour prendre le pouls, brassard à tension manuel, stéthoscope - à un monitorage en routine très sophistiqué. Cela a permis de détecter de manière plus fiable et plus précoce des situations mettant en jeu la sécurité ou la vie des patients. » La surveillance devient multiparamétrique et toujours plus complète afin de prendre en charge de plus en plus efficacement le patient et d'aider le praticien à affiner son diagnostic.

Le monitorage de l’anesthésie : toujours plus de performance et de précision

Il existe, cependant, des spécificités propres à l’anesthésie. Cette dernière vise trois effets majeurs : la perte de la mobilité, celle de la mémoire et celle de la conscience. A noter que, pour obtenir ces effets, on recourt à des substances hypnotiques, analgésiques et des curares qui doivent être associées. Leur administration nécessite d‘être ajustée afin d’éviter les situations de sur ou sous-dosage et de répondre aux besoins spécifiques des patients. Le fait d’adapter la délivrance des médications aux besoins des événements peropératoires limite ainsi les épisodes d’anesthésie inadéquats (hypo ou hypertension, brady ou tachycardie et mouvements) et réduit le nombre d’événements post-opératoires indésirables (nausées, vomissements etc.) tout en raccourcissant le délai de récupération. À l’avenir, ces techniques devraient se simplifier et s’intégrer afin de faciliter et de généraliser la surveillance propre à chaque patient : on ne surveillera plus une population de patients mais le patient lui-même par une prise en charge spécifique et adéquate. Aujourd’hui, la systématisation des techniques de ventilation d’anesthésie en circuit fermé pour des raisons d’économies a en outre imposé la surveillance des gaz inhalés par le patient. Ainsi, des analyseurs de gaz multiparamétriques équipent les respirateurs et/ou les moniteurs installés dans les blocs opératoires (voir le chapitre consacré).

Améliorer la formation au monitorage

En 2007, une enquête menée par la SFAR et l’Inserm a conclu que le taux de décès liés à l’anesthésie avait été réduit par dix depuis la précédente étude de 1978-1982, notamment grâce aux paramètres mesurés par le monitorage. Néanmoins, estime Dan Longrois, « la priorité est aujourd’hui d’améliorer la formation au monitorage, lequel peut permettre, s’il est bien utilisé et grâce au développement à venir de l’intelligence artificielle (moniteurs couplés à des systèmes d’information) l’interprétation et la validation des informations mais aussi l’aide au diagnostic ». Et le professionnel de santé de vanter notamment la mise en place d’un module de e-learning centralisé et interne aux moniteurs pour mieux appréhender leur utilisation et homogénéiser les pratiques des professionnels de santé sur le territoire.

 

En France, le rôle prépondérant de la SFAR

 En 1988, un groupe de travail créé par la Société française d’anesthésie et réanimation (SFAR) a rédigé des recommandations de surveillance des patients en cours d’anesthésie portant sur les compétences des professionnels, la surveillance du patient et les équipements d’anesthésie. L’oxymètre de pouls y est décrit comme « indispensable pour l’évaluation de l’oxygénation du malade ». Y sont également préconisées l’utilisation du capnographe et la présence d’alarmes de débranchement et de limite de pression haute dans les appareils d’anesthésie (analyseur d’oxygène, respirateur, débitmètre mélangeur). Révisées en 1994, ces recommandations instaurent la surveillance continue du patient.

 

Moniteur de profondeur d’anesthésie : un concept en devenir ?

Apparue dans les années deux mille, la mesure de la profondeur d’anesthésie a fait l’objet de nombreuses recherches ces dernières années.

L’appréciation de la profondeur de la sédation est importante car elle détermine le confort
de l’opérateur et du patient (douleur, mémorisation) et l’incidence des effets indésirables. Or, indique la SFAR, son « estimation est un processus difficile à cause de la complexité de la pharmacologie des médicaments anesthésiques et de la neurobiologie de l’anesthésie », d’autant plus que « les signes cliniques ou hémodynamiques utilisés pour l’estimer peuvent être modifiés par de nombreux facteurs ». Les premiers dispositifs permettant de l’évaluer sont apparus dans les années deux mille avec l’invention de l’indice bispectral (Bis) dont l’objectif est d’optimiser la posologie des produits hypnotiques avec l’analyse bispectrale de l’Électroencéphalogramme (EEG). Et ce, afin de limiter leurs effets indésirables lors de l’induction et de l’entretien de l’anesthésie. L’EEG est recueilli à partir d’électrodes autocollantes disposées sur les zones glabres du scalp (front, tempes) et reliées à un moniteur par un câble numérique. « Les chercheurs ont analysé le sommeil de patients de l’état d’endormissement à l’anesthésie profonde. Cela leur a permis d’en ressortir des tendances clefs : un patient réveillé a un Bis à 100, un patient endormi pour une chirurgie doit avoir un Bis entre 40 et 60 tandis qu’un patient dormant ”beaucoup trop profondément”, a un Bis inférieur à 30, explique le Pr Jean-Michel Constantin. Le but premier de cette invention était d’éviter la mémorisation des patients lors d’anesthésies mais des études ont par la suite démontré que cela n’était pas aussi probant que prévu. En revanche, le Bis est sans aucun doute utile pour éviter les surdoses d’hypnotiques particulièrement délétères pour les patients, notamment sur les fonctions cognitives en post-opératoire ». Ce moniteur a donc sa place en anesthésie, pour la surveillance de routine du patient et surtout du patient à risque ainsi que pour la formation des anesthésistes. À l’avenir, la technique devrait évoluer vers plus de simplifications (une seule dérivation, moniteur miniaturisé, module intégré à un moniteur multifonction). L’utilisation du Bis pourrait également s’étendre à la recherche en pharmacologie clinique (relation dose-effet des nouveaux agents, influence des états physiopathologiques, interactions médicamenteuses).

 

À savoir

La saturation de l’oxygène ne peut être mesurée sur un doigt enduit de henné car cette matière absorbe la lumière infrarouge.

 

Monitorage néonatal : adapter les machines aux particularités des tout-petits

Daniele De Luca, chef de service réanimation néonatale à l’hôpital Antoine Béclère (Clamart)

« Les moniteurs de néonatalité sont les mêmes que ceux que nous utilisons en réanimation pour les adultes mais il existe trois différences principales. Premièrement, nous ne traitons pas les mêmes maladies. Ainsi, nous n’avons presque jamais de cancer, de Broncho-pneumopathie chronique obstructive (BPCO), de pneumonie à organisation cryptogène (COP). En revanche, nous prenons régulièrement en charge des pathologies typiques du nouveau-né comme la maladie des membranes hyalines ou le syndrome d’aspiration méconiale mais aussi le choc septique ou le sepsis grave. Ensuite, les principes physiologiques ne sont pas les mêmes : il y a en effet certaines spécificités au niveau de la physiologie, notamment respiratoire et circulatoire. Le poumon et la cage thoracique d’un nouveau-né ne sont absolument pas les mêmes que chez un adulte. Quant à la circulation, surtout la première semaine de vie, elle est absolument différente de celles des adultes. Enfin, les machines et ou les gestes que nous effectuons sont adaptés à de petites mesures (petites tailles, petits poids, petits volumes, petites vitesses de délivrance, petites pressions, etc.). Pour ce faire, de nombreux outils comme les cathéters, les sondes ou les prothèses, ont été miniaturisés il y a une trentaine d’années environ. Par exemple, nous utilisons aujourd’hui un Électroencéphalogramme (EEG) d’amplitude, plus simple, nous donnant une interprétation immédiate, ce qui nous évite de recourir à un neurologue. Nous utilisons également le monitorage par oxymétrie de pouls car ce dispositif permet de réaliser une perfusion périphérique simple, continue et non invasive. Auparavant, les anesthésistes faisaient appel à la technique de temps de recoloration cutanée, que l’on utilisait à l’œil nu et qui était donc moins précise et sécurisée. De nos jours, il est également possible d’effectuer des monitorages hémodynamiques de la fonction cardiaque et circulatoire très avancés, d’une façon non invasive et continue, grâce à deux dispositifs : la cardiométrie électrique (adaptée même pour les bébés de 500 grammes) et le doppler transoesophagien (utilisable pour les enfants jusqu’à 2,5 kilos) ».

 

Focus

Mesurer le CO2 expiré pour diminuer les accidents d’anesthésie

Loin de n’être qu’un déchet métabolique de notre organisme, le CO2 participe à bien d’autres actions. Son analyse est devenue incontournable pour les anesthésistes-réanimateurs.

Au-delà du fait qu’il permet de conserver un pH adéquat, le CO2 reflète aussi fidèlement la ventilation du patient : sa mesure est donc indispensable au clinicien pour affirmer qu’un patient est hypo ou hyperventilé. Il joue aussi un rôle important dans la perfusion cérébrale et agit en partenaire complémentaire de l’O2. Aujourd’hui, le monitorage respiratoire peropératoire par la capnographie, associée à la SpO2, à la pression dans les voies aériennes, à la spirométrie expirée et à la concentration inspirée en oxygène, est obligatoire pour toute anesthésie générale avec intubation trachéale.

Détecter plus précocement les problèmes respiratoires

En effet, explique le Pr Jean-Michel Constantin, « la capnographie (relevé, sous forme de graphique, du taux de dioxyde de carbone présent dans l’air expiré), est indispensable en anesthésie car elle permet de détecter très précocement les problèmes (intubation œsophagienne, malposition d’un masque laryngé, ventilation inadaptée, réveil inopiné etc.) et donc d’apporter les facteurs correctifs ad hoc rapidement afin de diminuer la morbidité et la mortalité inhérentes à l’anesthésie ». Associée à d’autres moniteurs, la capnographie est aujourd’hui utilisée pour diagnostiquer les insuffisances circulatoires, l’hyperthermie maligne mais aussi l’évaluation de la profondeur d’anesthésie. Bien que son intérêt pour le monitorage des patients en détresse respiratoire aigüe reste controversé, elle peut contribuer, chez ces patients, à dépister précocement des complications ventilatoires ou hémodynamiques graves afin d’orienter le diagnostic étiologique (qui consiste à trouver la cause d’une affection) et, dans certaines situations, guider la thérapeutique.

Simple et non invasive, cette méthode utilisant la spectrophotométrie par rayonnement infrarouge est utilisée au bloc opératoire mais aussi en réanimation et dans les services d’urgences. La cellule de mesure est soit directement placée à la sortie de la sonde d’intubation du patient (technologie mainstream), soit un échantillon de gaz plus ou moins important est aspiré à l’aide d’une tubulure plus ou moins longue et fine pour être analysé dans la chambre de mesure intégrée dans le module (technologie sidestream/microstream).

 

Mesurer les pressions artérielle et veineuse pour guider au mieux les médecins

 

Les réanimateurs et anesthésistes prennent en charge des patients présentant de fortes fluctuations hémodynamiques, dans le cadre d’un état de choc ou d’une chirurgie complexe, en particulier chez les personnes à haut risque opératoire. Pour comprendre ces défaillances cardiovasculaires et optimiser leur prise en charge, les médecins ont aujourd’hui à leur disposition plusieurs techniques de monitorage hémodynamique.

 

« Le monitoring hémodynamique correspond à l’ensemble des mesures mises en œuvre pour explorer l’état hémodynamique des patients, c’est-à-dire explorer le fonctionnement du cœur et du système vasculaire pour apprécier la qualité de la circulation sanguine », explique le Pr Xavier Monnet, du service de réanimation médicale de l’Hôpital Bicêtre (Hôpitaux universitaires Paris-Sud). Il est utilisé lors d’une instabilité hémodynamique, qui risque d’aboutir à un déséquilibre entre les apports et les besoins en oxygène des tissus de l’organisme et à une défaillance multiviscérale mortelle.

En anesthésie, le monitoring hémodynamique sert à alerter l’anesthésiste d’une dégradation des conditions hémodynamiques liées à l’anesthésie et à la chirurgie et à guider le traitement qu’il met en œuvre rapidement. En réanimation, un monitoring hémodynamique complexe permet, chez les patients les plus gravement atteints, de comprendre les mécanismes physiopathologiques de la défaillance circulatoire, de choisir le traitement mis en place et de juger de son efficacité. Il est utilisé chez les patients dans un état grave, ceux qui présentent un état de choc (septique, cardiogénique, hémorragique), par exemple au cours d’un Syndrome de détresse respiratoire aigüe (SDRA), suite à une brûlure, à un polytraumatisme mais aussi après une chirurgie lourde comme la chirurgie cardiaque.

Il existe trois catégories de monitorages hémodynamiques selon leur complexité.

Le monitorage hémodynamique de base correspond à la simple mesure des pressions artérielle et veineuse centrales. Elle se fait au moyen de cathéters implantés dans les vaisseaux des patients et reliés à un manomètre. Ce monitoring est destiné à tous les patients qui présentent une insuffisance circulatoire.

Les outils de monitoring intermédiaire mesurent le débit cardiaque sans être trop invasifs. Ils fournissent peu d’informations mais sont peu délétères pour le patient. Il existe aujourd’hui de très nombreux outils, certains étant même totalement non invasifs puisqu’ils consistent simplement à coller des électrodes sur le thorax du patient. Ces dispositifs sont surtout utilisés au bloc opératoire, pour des patients qui subissent une chirurgie à risque. Il a été démontré que l’utilisation de ces techniques chez ces patients diminue les complications péri-opératoires.

Il existe deux types d’outils de monitoring hémodynamique avancé : le cathéter de Swan-Ganz, qui est l’outil dit historique, et la thermodilution transpulmonaire. Cette technique permet de mesurer de nombreux paramètres cardio-respiratoires grâce à l’analyse de la courbe de thermodilution obtenue après l’injection par voie veineuse centrale d’un indicateur thermique (soluté salé isotonique froid). Tous ces systèmes fournissent, en plus de la mesure du débit cardiaque, de nombreuses informations mais sont plus invasifs. Ils permettent une mesure d’un très grand nombre de variables hémodynamiques, ce qui les fait ressembler à un véritable tableau de bord du système cardiovasculaire. Ces appareils sont indiqués pour les patients en réanimation présentant un état de choc qui résiste au remplissage vasculaire et dans certaines chirurgies à très haut risque (chirurgie hépatique, par exemple).

Outre la mesure de la pression artérielle, connue depuis le XIXe siècle, l’histoire du monitorage hémodynamique est assez récente. « Le premier outil est développé au début des années soixante-dix par deux médecins du Centre médical Cedars-Sinai de Los Angeles (USA), Jeremy Swan et William Ganz. Il s’agit d’un cathéter introduit dans l’artère pulmonaire via une veine centrale, muni de plusieurs canaux et d’un ballon à son extrémité. Ce cathéter artériel pulmonaire permet, pour la première fois assez facilement chez l’homme, de mesurer le débit cardiaque, plusieurs pressions des cavités cardiaques et des vaisseaux ainsi que les variables de l’oxygénation tissulaire », explique le Pr Xavier Monnet.

Dans les années qui suivent, le nombre de cathéters de Swan-Ganz utilisés dans le monde ne cesse de croître : ce succès est notamment dû aux modifications technologiques apportées au cathéter traditionnel. Il est doté de fibres optiques permettant la mesure continue de la saturation en oxygène du sang veineux mêlé (SvO2) et d’un filament thermique servant à mesurer le débit cardiaque de manière automatique et quasi-continue. Néanmoins, le caractère invasif et la mise en œuvre relativement complexe entraînent, à partir des années deux mille, une diminution progressive de l’utilisation du cathéter de Swan-Ganz à travers le monde. Simultanément, les industriels développent d’autres appareils moins invasifs. De nos jours, cette technique est seulement utilisée par une minorité de réanimateurs et d’anesthésistes.

Des dispositifs de moins en moins invasifs

À la fin des années quatre-vingt, apparaît la technique de doppler œsophagien, aujourd’hui encore très usitée. Avec une simple sonde de la taille d’une sonde gastrique glissée dans l’œsophage, ce dispositif mesure la vélocité sanguine dans l’aorte thoracique descendante et le débit cardiaque. Il est particulièrement indiqué chez les patients chirurgicaux à risque. Au milieu des années quatre-vingt-dix, une autre technique de monitoring révolutionne le marché : il s’agit de la thermodilution transpulmonaire. La technique est relativement invasive car elle nécessite la pose d’un cathéter veineux central classique ainsi que d’un cathéter spécifique d’assez gros calibre et muni d’un thermomètre dans l’artère fémorale. Elle permet cependant de mesurer de nombreuses variables hémodynamiques intéressantes. Par exemple, c’est la seule technique qui permet de quantifier, au lit du patient, le volume de l’eau extravasculaire pulmonaire, c’est-à-dire du liquide contenu dans l’espace interstitiel et les alvéoles pulmonaires. Ce paramètre est particulièrement intéressant chez les patients présentant un œdème pulmonaire, comme lors d’un SDRA. Simultanément, une autre évolution, aujourd’hui très utilisée au bloc opératoire, apparaît : l’analyse du contour de l’onde de pouls. En pratique, il s’agit d’une analyse de la courbe de pression artérielle recueillie au moyen d’un cathéter. Elle permet un calcul battement par battement du Volume d’éjection systolique (VES), c’est-à-dire du volume de sang éjecté dans les artères à chaque contraction cardiaque. Cette technique peut être couplée à la thermodilution transpulmonaire qui sert à la calibrer. Elle peut aussi être non calibrée et, dans ce cas, ne nécessite qu’un simple cathéter artériel radial. Elle est alors moins fiable mais beaucoup moins invasive. Cette analyse non calibrée du contour de l’onde de pouls est très utilisée pour le monitoring péri-opératoire des patients à haut risque chirurgical.

 

Qu’est-ce qu’un état de choc ?

L’état de choc est une urgence diagnostique et thérapeutique qui, en l’absence de traitement, conduit au décès de façon systématique. Tout retard de diagnostic et de prise en charge a des conséquences très graves. Sur le plan fonctionnel, il s’agit d’une défaillance du système circulatoire aboutissant à une inadéquation entre l’apport et les besoins tissulaires périphériques en oxygène. Concrètement, l’état de choc se manifeste d’abord par une hypotension artérielle aigüe. Afin de guider au mieux la prise en charge thérapeutique, il est très important d’identifier rapidement les mécanismes en cause et les conséquences de l’état de choc sur les tissus. C’est notamment à cela que peut servir le monitoring hémodynamique.

 

 

Une photographie de la respiration du patient en temps réel

 

L’analyseur de gaz du sang est un dispositif d’analyse automatique permettant d’évaluer un nombre significatif de paramètres critiques calculés ou mesurés – dont les gaz de sang mais aussi les électrolytes, les métabolites et la coxymétrie complète – et de diagnostiquer, par exemple, une acidose respiratoire chez un patient dyspnéique. Les quantités d’oxygène et de gaz carbonique contenues dans le sang artériel et son pH sont analysées afin d’apprécier l’efficacité des échanges pulmonaires (épuration en gaz carbonique, enrichissement en oxygène). Cet examen essentiel permet aux cliniciens de déterminer l’étiologie et la gravité de la pathologie aigüe et ainsi d’orienter le traitement.

 

Cet examen repose sur une prise de sang au niveau d’une artère (radiale, humérale ou fémorale) à l’aide d’une seringue héparinée. Le sang est ensuite introduit dans l’analyseur. Trois grandes catégories de tests sont réalisées : le bilan d’oxygénation, les paramètres métaboliques apparentés et le bilan acido-basique.

En 1935, deux ingénieurs danois, Børge Aagaard Nielsen et Carl Schrøder, fondent une société spécialisée dans la radiotélécommunication. En 1951, ils développent le premier pH-mètre, un dispositif capable de doser le niveau d’acidité et de basicité dans les liquides. Dès 1952, lors de l’épidémie de poliomyélite qui touche l’Europe du Nord, ce dispositif est déterminant pour établir le bon diagnostic en mesurant la valeur du pH sanguin des enfants présentant un risque d’insuffisance respiratoire afin de mieux guider les traitements. Cette tragédie fait prendre conscience aux ingénieurs de l’importance de développer les pH-mètres sanguins pour le secteur médical. Les premiers analyseurs de gaz de sang sont lancés en 1954.

Automatisation et connectivité

Dans les années soixante-dix, les mesures sont automatisées grâce à l’utilisation de nouvelles électrodes et d’un circuit fluidique plus simple. En 1999, l’apparition des premières ampoules de Contrôle interne de qualité (CIQ) permet d’améliorer encore la pratique, ce dispositif détectant automatiquement les erreurs ou les dérives et corrigeant la température. Puis, au début des années deux mille, la connectique fait entrer les dispositifs de gaz de sang dans l’ère de la bio-informatique où, désormais, les analyseurs sont surveillés à distance via des middlewares de pilotage : ces logiciels sont désormais connectés en wifi, ce qui permet au biologiste responsable des analyses de récupérer facilement les résultats pour les intégrer dans le système informatique du laboratoire puis de remplir le dossier patient. Quelques années plus tard, en 2012, sont mis à la disposition des biologistes des plates-formes automatisées de pilotage des analyseurs sans compter la possibilité de connecter d’autres dispositifs de biologie délocalisée comme les lecteurs d’hémoglobine ou les lecteurs de glycémie. Ces logiciels, aujourd’hui hébergés au sein même des serveurs hospitaliers, détectent la moindre anomalie en adressant immédiatement un e-mail ou une alerte au qualiticien ou au biologiste référent. Ces innovations répondent aux nouvelles exigences réglementaires qui imposent aux laboratoires de biologie d’être accrédités à l’horizon 2020. La possibilité de connecter des dispositifs tiers permet de n’avoir qu’un seul système de pilotage pour tous les dispositifs de biologie délocalisée d’un établissement hospitalier.

Enfin, l’habilitation du personnel médical et paramédical est désormais entièrement automatisée. Ce processus rationalise la démarche de formation des laboratoires vers les services de soin utilisateurs des dispositifs.

Des machines toujours plus efficaces

Les dispositifs volumineux du XXe siècle n’ont plus grand chose à voir avec les analyseurs intelligents actuels ! Si les premiers appareils ne pouvaient mesurer que l’oxygène, le dioxyde de carbone et le pH, aujourd’hui, ce sont dix-sept paramètres, dont l’intoxication au monoxyde de carbone, que les machines sont capables d’analyser. L’évaluation des échanges gazeux du patient est donc bien plus précise et la prise en charge thérapeutique s’en trouve optimisée. Le futur semble s’orienter vers un accès à l’information encore plus facile (via les smartphones) et l’évaluation de nouveaux paramètres comme les marqueurs de l’insuffisance rénale (urée et créatinine). L’objectif est de raccourcir le laps de temps permettant de réaliser cette analyse en laboratoire de quatre-vingt-dix à vingt minutes en moyenne, voire moins, pour les dispositifs installés dans les services de soins. Par exemple, la mesure de la créatinine en quelques secondes pourrait conduire un service des urgences à orienter beaucoup plus rapidement les patients pour les soumettre à un angioscanner injecté. Enfin, une autre innovation serait l’accessibilité immédiate à des scores biocliniques sur les plates-formes de validation en intégrant les données biologiques des analyseurs de gaz du sang.

 

À savoir

En 1951, le premier pH-mètre à voir le jour servait à mesurer … l’acidité de la bière !

 

Une nécessité pour la nouvelle organisation hospitalière

Le développement de nouveaux paramètres sur les analyseurs de sang est justifié par l’évolution de l’organisation hospitalière. Le regroupement des hôpitaux nécessite en effet une réorganisation des moyens des laboratoires. Les laboratoires satellites doivent néanmoins pouvoir répondre aux cliniciens des urgences en leur fournissant un premier bilan biochimique d’urgence sans envoyer une navette à l’hôpital principal, souvent distant de plus de vingt kilomètres.

 

Quand le cœur et les poumons défaillent

 

Ces deux techniques de circulation extra-corporelle sont utilisées pour suppléer le cœur ou le poumon lorsque ceux-ci sont défaillants.

 

A quoi ça sert ?

• Ecmo

L’ECMO (pour extra-corporelle membrane oxygénation) permet de suppléer les défaillances cardiaques et/ou respiratoires en assurant le débit circulatoire et l’oxygénation nécessaires. Elle est utilisée pour prendre en charge des chocs cardiogéniques et des insuffisances respiratoires réfractaires aux traitements conventionnels.

• CEC

En détournant la circulation du sang, la CEC (Circulation extra-corporelle) permet d’oxygéner les organes pendant que le cœur est arrêté afin de réaliser des opérations à cœur ouvert ou des pontages.

 

Comment ça marche ?

• Ecmo

L’ECMO utilise le concept de CEC incluant l’utilisation de poumons artificiels à membranes. Ce circuit comprend une pompe centrifuge, un oxygénateur enrichissant le sang en oxygène et éliminant le dioxyde de carbone ainsi que des canules de drainage et de réinjection.

• CEC

La CEC est un circuit mécanique relié au système vasculaire du patient. Le sang est collecté à son arrivée dans l’oreillette droite du cœur puis redirigé vers un oxygénateur où il subit des transferts gazeux : enrichissement en oxygène (O2) et évacuation du gaz carbonique (CO2). Ce sang artérialisé est alors pris en charge par une pompe qui le réinjecte dans l’aorte du patient.

 

Une histoire d’innovations

• Ecmo

En 1930, le chirurgien américain John Heysham Gibbon développe une machine cœur-poumon capable d’assurer les fonctions cardiaques et respiratoires d’un adulte lors d’interventions chirurgicales. La première ECMO est réalisée en 1958 dans le cadre du choc cardiogénique mais il faut attendre 1975 pour que son utilisation se démocratise. Dans les années qui suivent, la machine est simplifiée et miniaturisée. Plus maniable et utilisable dans le cadre d’un transport par le Samu, l’ECMO se déploie, bien qu’elle demeure un acte invasif associé à de graves complications et donc dédié aux centres spécialisés. En 2008, 1 150 ECMO sont réalisées. En 2009, en raison de l’épidémie de grippe A (H1N1), 60 % des patients admis en réanimation pour cette maladie présentent un syndrome de détresse respiratoire aigüe (SDRA). Parmi eux, « la détresse respiratoire [...] impose le recours à une ventilation mécanique optimale et a justifié une oxygénation extracorporelle (ECMO) chez environ 10 % de ces malades » explique Bernard Régnier dans un article paru dans le Bulletin épidémiologique hebdomadaire (« Le Syndrome de détresse respiratoire aiguë A(H1N1), réminiscence des pandémies du XXe siècle ? », BEHWeb 2009).

De nouvelles indications thérapeutiques

Longtemps réservée à l’hypoxémie réfractaire, la défaillance circulatoire et l’intoxication médicamenteuse, l’ECMO est, depuis 2010, aussi utilisée pour prendre en charge les arrêts cardiaques intra- et extrahospitaliers et effectuer le prélèvement d’organes à cœur arrêté. Si les machines ont peu évolué, le matériel a été simplifié et les oxygénateurs sont aujourd’hui plus performants. On recourt à l’utilisation de l’héparine pour les traitements de surface. Néanmoins, l’ECMO reste une technique d’assistance de courte durée, aux indications ciblées et restreintes. Depuis une douzaine d’années, les oxygénateurs sont fabriqués avec des fibres à diffusion, ce qui autorise une utilisation durable (15 à 30 jours sans changer d’oxygénateur). Les nouvelles générations de machine d’ECMO bénéficient de fonctionnalités (comme le monitorage des températures, des pressions ou encore du sang en continu) qui améliorent la surveillance du patient.

Aujourd’hui, certains appareils disposent d’un agrément pour le transport en ambulance et en avion, assurant ainsi une prise en charge plus précoce. Plusieurs autres indications sont en cours d’évaluation comme la transplantation pulmonaire mais aussi le choc septique, l’hémorragie intrapulmonaire, le traumatisme thoracique ou encore, le choc anaphylactique.

• CEC

Les premières CEC sont réalisées dans les années cinquante grâce à la création de l’oxygénateur
artificiel à membrane (1955). Pendant une quinzaine d’années, le dispositif fonctionne à l’aide de pompes à galet (péristaltique), par la suite remplacées par les pompes centrifuges, lesquelles consistent à convertir l’énergie d’une source de mouvement (le moteur) d’abord en vitesse (ou énergie cinétique) puis en énergie de pression. Ce système présente de nombreux avantages par rapport aux autres types de pompage : il garantit un volume d’encombrement réduit, un service relativement silencieux et une mise en œuvre aisée avec tous les types de moteurs électriques. En outre, il s’adapte facilement aux différents traitements des liquides. Enfin, il est bien plus ergonomique : maintenance simplifiée, encombrement réduit, durée de vie prolongée, écran tactile pour une meilleure surveillance. Depuis 1995, un nouveau mélangeur bénéficiant d’un contrôle électronique de débit est apparu sur le marché. Désormais, plusieurs appareils disposent également d’une surveillance de l’anticoagulation grâce au contrôle de l’efficacité de l’héparine. Les nouvelles générations de CEC sont par ailleurs équipées de détecteurs de bulles et ont un fonctionnement de plus en plus sophistiqué puisque ces dispositifs sont capables de détecter des bulles d’environ 0,5 cm3 de volume.

Dans un contexte où la sécurité est au cœur des priorités du système de santé, les industriels de la CEC se penchent aujourd’hui sur les différentes possibilités de recueil et de traitement des données par des systèmes informatiques pour assurer une meilleure traçabilité des procédures, tant d’un point de vue médical que technique. Il s’agit de créer une sorte de boîte noire intégrée comme il en existe dans les avions. Ainsi, à la fin de la CEC, on obtient une feuille de surveillance de la CEC personnalisée qui est ajoutée au dossier patient.

 

Des chariots intelligents

Sur les premières consoles de CEC, l’embase (surface d’appui) ne servait que de chariot de transport, de rangement et de connexion pour les prises de courant. Aujourd’hui, elle comporte de nombreux éléments technologiques dont les alimentations principale et de secours, les modules de contrôle et de sécurité ainsi que les unités de communication vers les appareils externes.

 

Vers une meilleure biocompatibilité des matériaux

Alain Combes, Professeur en réanimation médicale PU-PH à l’Hôpital Pitié-Salpêtrière.

« Le silicone a été abandonné au profit de matériaux jugés davantage biocompatibles. Les recherches actuelles visent à aller plus loin pour recouvrir les surfaces des dispositifs (tuyaux, pompe, oxygénateur…) avec une matière la plus proche possible de l’endothélium vasculaire ».

Pivot de l’hôpital numérique et de l’organisation de demain

 

Outils d’aide à la décision clinique, les logiciels DM permettent, en anesthésie-réanimation, une prise en charge améliorée, en particulier des patients critiques.

 

En anesthésie comme en réanimation, la documentation des multiples données des patients doit être précise et continue pour permettre une intervention la plus sécurisée et la plus confortable possible. Le rôle des logiciels DM est donc de collecter dans un système informatisé et centralisé toutes ces données pour assurer une meilleure efficience des soins à l’hôpital et permettre aux anesthésistes et réanimateurs de s’épargner certaines tâches manuelles pour se concentrer sur le patient. Ces DM ont donc un réel impact sur l’organisation hospitalière avec, à la clef, meilleure gestion des emplois du temps et des ressources humaines et matérielles, moins d’imprévus, un suivi du patient facilité et garanti, une traçabilité des actes et enfin, une réduction des coûts. Pour les patients aussi, le bénéfice est indéniable : la qualité des soins s’en trouve améliorée et leur parcours fluidifié. On recense aussi moins d’incidents et moins d’erreurs.

Il existe de très nombreux logiciels DM. La téléconsultation en anesthésie permet ainsi aux patients logeant loin des centres d’excellence de bénéficier du meilleur suivi. Autre déclinaison : l’informatisation des blocs opératoires rendue possible grâce à des systèmes de gestion extrêmement performants. À chaque intervention, ces DM centralisent toutes les informations nécessaires (dossier patient, programmation, documentation sur l’opération…). En réanimation, les logiciels de suivi permettent de mieux appréhender les différentes phases liées à l’opération : des prescriptions sont données par le logiciel heure par heure avec possibilité de remonter aux prescriptions des jours précédents. Le système planifie les soins, permet le suivi des résultats d’examens biologiques, surveille les paramètres vitaux collectés auprès des appareils de monitorage, compilent les données complémentaires (autres traitements) et archive le tout.

L’histoire des logiciels dispositif médicaux est liée aux progrès informatiques et à l’intelligence artificielle. À l’hôpital, l’informatisation des structures démarre dès 1982 avec le Projet de médicalisation des systèmes d’information (PMSI). L’arrêté du 20 septembre 1994 et la circulaire du 10 mai 1995 fixent l’obligation, pour les établissements, de transmettre leurs données. S’il existait déjà des logiciels utilisés en santé et marqués CE auparavant, c’est la Directive européenne n°2007/47/CE qui vient en préciser et en clarifier le statut : ces dispositifs sont désormais considérés comme « capables d’accomplir par eux-mêmes une finalité médicale ».

L’hôpital numérique, pivot de la modernisation du système de santé

Le 23 septembre 2013, lors de la présentation de sa feuille de route pour la Stratégie nationale de santé (SNS), la ministre des Affaires sociales et de la Santé, Marisol Touraine, évoque le Programme hôpital numérique comme pivot de la modernisation de l’offre et du parcours de soins préconisée dans la Loi de santé. Ainsi, l’informatisation des établissements sanitaires est-elle vue comme une condition sine qua non de la médecine de parcours. Dans cette perspective, le programme vise d’abord le développement des Systèmes d’information hospitaliers (SIH) d’autant que les besoins futurs ne sont pas tant techniques ni technologiques qu’organisationnels. Dans une perspective d’amélioration du parcours de soins entre la ville et l’hôpital, le partage et l’informatisation des données de santé est essentiel et les logiciels DM auront un rôle primordial à jouer dans les années à venir.

Un serveur intelligent

Depuis quelques années, de nouveaux dispositifs sont apparus sur le marché. Il s’agit de serveurs applicatifs sécurisés autorisant un ou plusieurs accès distants simultanés aux logiciels d’imagerie médicale et de post-traitement. Ces solutions ont pour objectif de faciliter la communication et d’encourager les collaborations entre professionnels de santé, en particulier les actes de télé-expertise et de télé-assistance au moment du diagnostic mais aussi au cours d’une intervention chirurgicale, durant le suivi post-opératoire ou comme support visuel de la formation des professionnels de santé.

 

Le SIH trouve peu à peu sa place à l’hôpital

Dans un rapport publié en mars 2014 sur les Systèmes d’informations hospitaliers (SIH), l’Agence nationale d’appui à la performance des établissements de santé et médico-sociaux (Anap) estimait que « le SIH trouve progressivement sa place dans la stratégie des établissements. […] Un premier palier de maturité a été atteint, concernant en particulier la maîtrise technologique »,
alors que « l’ensemble des professionnels des établissements sont désormais des utilisateurs quotidiens de l’informatique ». L’Agence regrettait néanmoins que, concernant le versant informatique, « les processus relatifs aux dispositifs médicaux souffrent encore d’une automatisation non aboutie » et que le « dialogue de gestion au sein des établissements en [soit] encore à ses prémices ».  Pour développer massivement l’usage du SIH et en « faire réellement un élément contributif à la performance de l’établissement », l’Anap proposait, entre autres, d’améliorer l’intégration du SIH dans la stratégie de l’établissement, de développer
 l’interopérabilité des logiciels et d’améliorer la formation à la maitrise des divers outils.

* « Audit des systèmes d’information auprès d’établissements représentatifs », Rapport final,
mars 2014, Anap