Investigadores de la Escuela Universitaria de Londres están desarrollando un programa informático que podría facilitar las intervenciones de cirugía laparoscópica, al superponer a las imágenes de vídeo en 3D tomadas en el interior del cuerpo los datos recogidos en pruebas anteriores, como una resonancia magnética o un TAC.
De esta forma, los cirujanos podrán dirigir la operación con mayor precisión, evitando además daños en el tejido que no se pueden ver sólo con una cámara de vídeo.
A diferencia de una operación convencional, este sistema constituye un método mínimamente invasivo, ya que evita los grandes cortes de bisturí, posibilitando un postoperatorio mucho más rápido y confortable.
Gracias al trabajo conjunto de cirujanos e ingenieros, especialmente en grandes centros universitarios, se ha logrado diseñar y modificar una gran variedad de instrumental adaptado para este tipo de intervenciones. Ahora, investigadores de la Escuela Universitaria de Londres (UCL) han dado un paso más allá, al desarrollar un método de realidad aumentada que facilitaría aun más la operación.
Según publica la revista digital británica The Engineer, el objetivo es superponer a las imágenes de vídeo tomadas por cámaras laparoscópicas los datos recogidos previamente, bien mediante una resonancia magnética (RMN) o una tomografía axial computarizada (TAC). Esto podría permitir a los cirujanos ser mucho más precisos en el manejo de sus instrumentos en el interior del cuerpo, así como evitar daños en el tejido que no se pueden ver sólo con una cámara interna.
“Al permitir ver las estructuras internas de los órganos, se puede dirigir la cirugía con mayor precisión, por ejemplo, para extirpar un tumor con mejores márgenes o proteger un vaso sanguíneo o un nervio de un daño accidental”, explica el cerebro de la investigación, el doctor Danail Stoyanov, de la UCL.
El sistema se basa en la investigación existente sobre algoritmos que permiten calcular coordenadas geométricas y el movimiento que contienen las imágenes capturadas con cámaras 3D estereoscópicas.
Esto puede utilizarse para determinar la posición de los órganos visibles en tiempo real y después solaparlo al mapa virtual del cuerpo proporcionado por la RMN o TAC.
“El verdadero desafío es que la mayoría de los trabajos existentes se basa en ambientes rígidos o en entornos donde la reflectancia de la luz se puede simplificar”, puntualiza Stoyanov. Por el contrario, en la cirugía “el tejido es deformable y dinámico, además de que está húmedo, por lo que la respuesta de la luz puede ser variada y cambiar dependiendo desde dónde se esté mirando el tejido”, añade.
Así las cosas, el trabajo de estos investigadores aspira a superar estos retos mediante el desarrollo de nuevos algoritmos que trabajen en cada tipo de entorno y en tiempo real, coincidiendo con la velocidad de cada fotograma del vídeo. “Con este fin, hemos desarrollado estrategias paralelas para coincidir con las estructuras entre imágenes, de modo que la triangulación 3D sea posible con cámaras laparoscópicas”, destaca el doctor.
Fuente: Tendencias 21
De esta forma, los cirujanos podrán dirigir la operación con mayor precisión, evitando además daños en el tejido que no se pueden ver sólo con una cámara de vídeo.
A diferencia de una operación convencional, este sistema constituye un método mínimamente invasivo, ya que evita los grandes cortes de bisturí, posibilitando un postoperatorio mucho más rápido y confortable.
Gracias al trabajo conjunto de cirujanos e ingenieros, especialmente en grandes centros universitarios, se ha logrado diseñar y modificar una gran variedad de instrumental adaptado para este tipo de intervenciones. Ahora, investigadores de la Escuela Universitaria de Londres (UCL) han dado un paso más allá, al desarrollar un método de realidad aumentada que facilitaría aun más la operación.
Según publica la revista digital británica The Engineer, el objetivo es superponer a las imágenes de vídeo tomadas por cámaras laparoscópicas los datos recogidos previamente, bien mediante una resonancia magnética (RMN) o una tomografía axial computarizada (TAC). Esto podría permitir a los cirujanos ser mucho más precisos en el manejo de sus instrumentos en el interior del cuerpo, así como evitar daños en el tejido que no se pueden ver sólo con una cámara interna.
“Al permitir ver las estructuras internas de los órganos, se puede dirigir la cirugía con mayor precisión, por ejemplo, para extirpar un tumor con mejores márgenes o proteger un vaso sanguíneo o un nervio de un daño accidental”, explica el cerebro de la investigación, el doctor Danail Stoyanov, de la UCL.
El sistema se basa en la investigación existente sobre algoritmos que permiten calcular coordenadas geométricas y el movimiento que contienen las imágenes capturadas con cámaras 3D estereoscópicas.
Esto puede utilizarse para determinar la posición de los órganos visibles en tiempo real y después solaparlo al mapa virtual del cuerpo proporcionado por la RMN o TAC.
“El verdadero desafío es que la mayoría de los trabajos existentes se basa en ambientes rígidos o en entornos donde la reflectancia de la luz se puede simplificar”, puntualiza Stoyanov. Por el contrario, en la cirugía “el tejido es deformable y dinámico, además de que está húmedo, por lo que la respuesta de la luz puede ser variada y cambiar dependiendo desde dónde se esté mirando el tejido”, añade.
Así las cosas, el trabajo de estos investigadores aspira a superar estos retos mediante el desarrollo de nuevos algoritmos que trabajen en cada tipo de entorno y en tiempo real, coincidiendo con la velocidad de cada fotograma del vídeo. “Con este fin, hemos desarrollado estrategias paralelas para coincidir con las estructuras entre imágenes, de modo que la triangulación 3D sea posible con cámaras laparoscópicas”, destaca el doctor.
Fuente: Tendencias 21