Información

Buscando un problema de segmentación de celdas duras

Buscando un problema de segmentación de celdas duras


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Soy un físico que trabaja en una nueva técnica de segmentación de imágenes y me gustaría probarla segmentando algunas imágenes con celdas poco refinadas sobre un fondo ruidoso ... ¿Sabes dónde puedo encontrar esas imágenes? ¡Gracias!


Segmentación de imágenes para encontrar células en imágenes biológicas

Tengo un montón de imágenes de células y quiero extraer dónde están las células. Actualmente estoy usando transformaciones circulares de Hough y funciona bien, pero se estropea regularmente. Me pregunto si la gente tiene alguna sugerencia. Lo siento, esta no es una pregunta específicamente sobre software, es cómo obtener un mejor rendimiento en este problema de segmentación de imágenes.

He probado otras cosas en skimage con éxito limitado, como la búsqueda de contornos, la detección de bordes y los contornos activos. Nada funcionó bien desde el primer momento, aunque podría ser que no manipulé los parámetros correctamente. No he hecho mucha segmentación de imágenes, y realmente no sé cómo funcionan estas cosas o cuáles son las mejores formas de manipularlas.

Aquí está el código que estoy usando actualmente que toma una imagen en escala de grises como una matriz numpy y busca la celda como un círculo:

Aquí hay un ejemplo en el que el código encontró el círculo incorrecto como límite de la celda. Parece que se confundió con la suciedad que rodea la celda:


Resumen del autor

Los experimentos de microscopía automatizada pueden generar conjuntos de datos masivos, lo que permite un análisis detallado de la fisiología celular y propiedades como la expresión génica. En particular, las mediciones dinámicas de la expresión génica con microscopía de lapso de tiempo han resultado invaluables para comprender cómo operan las redes reguladoras de genes. Sin embargo, el procesamiento de imágenes sigue siendo un cuello de botella clave en el proceso de análisis, que generalmente requiere la intervención humana y posteriormente Procesando. Recientemente, los enfoques basados ​​en el aprendizaje automático han marcado el comienzo de una nueva era de análisis de imágenes rápido y autónomo. En este trabajo, usamos y reutilizamos el algoritmo de aprendizaje profundo de U-Net para desarrollar una canalización de procesamiento de imágenes que no solo puede identificar con precisión la ubicación de las células en una imagen, sino también rastrearlas a lo largo del tiempo a medida que crecen y se dividen. Como aplicación, nos enfocamos en películas en intervalos de varias horas de bacterias que crecen en un dispositivo de microfluidos. Nuestro algoritmo es preciso y rápido, con tasas de error cercanas al 1% y requiere menos de un segundo para analizar un fotograma de película típico. Este aumento de velocidad y fidelidad tiene el potencial de abrir nuevas vías experimentales, p. Ej. donde las imágenes se analizan sobre la marcha para que las condiciones experimentales se puedan actualizar en tiempo real.

Citación: Lugagne J-B, Lin H, Dunlop MJ (2020) DeLTA: Segmentación celular automatizada, seguimiento y reconstrucción del linaje mediante aprendizaje profundo. PLoS Comput Biol 16 (4): e1007673. https://doi.org/10.1371/journal.pcbi.1007673

Editor: Anand R. Asthagiri, Northeastern University, ESTADOS UNIDOS

Recibió: 1 de agosto de 2019 Aceptado: 22 de enero de 2020 Publicado: 13 de abril de 2020

Derechos de autor: © 2020 Lugagne et al. Este es un artículo de acceso abierto distribuido bajo los términos de la Licencia de Atribución Creative Commons, que permite el uso, distribución y reproducción sin restricciones en cualquier medio, siempre que se acredite el autor y la fuente originales.

Disponibilidad de datos: Todos los datos relevantes están dentro del manuscrito y sus archivos de información de respaldo.

Fondos: Este trabajo fue apoyado por las subvenciones de los Institutos Nacionales de Salud R01AI102922 y R21AI137843 y por la Oficina de Ciencias (BER) en la subvención DE-SC0019387 del Departamento de Energía de EE. UU. Los patrocinadores no tuvieron ningún papel en el diseño del estudio, la recopilación y el análisis de datos, la decisión de publicar o la preparación del manuscrito.

Conflicto de intereses: Los autores han declarado que no existen intereses en competencia.


1. Introducción

Las imágenes de microscopía electrónica (EM) a gran escala se están convirtiendo en una herramienta cada vez más importante en diferentes campos de la biología. La técnica fue iniciada por los esfuerzos para mapear los circuitos neuronales de pequeños animales en resolución sináptica para obtener su llamado conectoma. En la década de 1980, White et al. [37] han mapeado el conectoma completo de C. elegans en un esfuerzo de rastreo manual que abarcó más de una década. Desde entonces, el rendimiento de las imágenes EM ha aumentado en varios órdenes de magnitud gracias a innovaciones como la sección en serie multihaz EM [10], el cosido con cuchilla caliente [13] o el fresado en racimo de gas [13]. Esto permite obtener imágenes de volúmenes mucho mayores hasta el cerebro completo de la larva de la mosca de la fruta [11] e incluso la mosca de la fruta adulta [41]. Recientemente, los estudios basados ​​en EM a gran escala se han vuelto más comunes también en otros campos de la biología [27, 29, 33].

Dada la enorme cantidad de datos generados, el análisis automatizado de las imágenes adquiridas es crucial, uno de los pasos clave es la segmentación de instancias de células, neuronas u orgánulos celulares. En los últimos años, la precisión de los algoritmos de segmentación automatizada ha aumentado significativamente gracias al auge de las herramientas basadas en el aprendizaje profundo en la visión por computadora y al desarrollo de redes neuronales convolucionales (CNN) para la segmentación semántica y de instancias.

[3, 12, 22, 16]. Aún así, todavía no es lo suficientemente bueno como para renunciar por completo a la corrección de pruebas en humanos. De todos los problemas de análisis de imágenes EM, la segmentación neuronal resultó ser particularmente difícil [16] debido al pequeño diámetro y el largo alcance de neuronas y astrocitos, pero otros problemas de segmentación EM aún no se han automatizado completamente. Una de las principales desventajas de los enfoques de segmentación basados ​​en CNN radica en su campo de visión limitado, lo que los hace demasiado dependientes de la evidencia de límites locales. La tinción con metales pesados ​​utilizada en la preparación de la muestra EM tiñe todas las células de forma indiscriminada y obliga a los algoritmos de segmentación a depender de la detección de la membrana celular para separar los objetos unidos a la membrana. Los artefactos de tinción o los problemas de alineación pueden debilitar gravemente esta evidencia y, a menudo, causar errores de fusión falsos cuando los objetos separados se fusionan en uno solo. Por otro lado, las membranas de orgánulos celulares u objetos de pequeño diámetro a menudo causan falsos errores de división en los que una sola estructura se divide en varios objetos segmentados.

Los expertos humanos evitan muchos de estos errores al explotar conocimientos previos adicionales sobre la forma esperada del objeto o las limitaciones de la biología de nivel superior. Tras esta observación, se han introducido recientemente varios algoritmos para permitir la detección de errores morfológicos en objetos segmentados [31, 42, 9]. Al observar objetos completos en lugar de un puñado de píxeles, estos algoritmos pueden mejorar significativamente la precisión de la segmentación inicial. Además de criterios puramente morfológicos, Krasowski et al. en [18] sugirió un algoritmo para explotar los antecedentes biológicos, como una mezcla incompatible de elementos de ultraestructura.

Sobre la base de ese trabajo previo, esta contribución introduce un enfoque general para aprovechar el conocimiento específico del dominio para mejorar la precisión de la segmentación. Permite incorporar una gran variedad de reglas, explícitas o aprendidas de los datos, que se pueden expresar como la probabilidad de que determinadas áreas de la imagen pertenezcan al mismo objeto en la segmentación. Las áreas pueden ser escaso y / o espacialmente distante. Más detalladamente, formulamos el problema de segmentación con reglas tales como un problema de partición de gráficos con bordes atractivos o repulsivos de largo alcance.

Figura 1: Mapeo del conocimiento del dominio para los bordes elevados dispersos para la corteza de mamíferos (izquierda), el cerebro de Drosophila (centro) y la cámara de coanocitos de esponja (derecha). Desde los datos brutos (a) hasta el problema del gráfico local (b) con bordes atractivos (verde) y repulsivos (rojo). El conocimiento del dominio se asigna a los nodos (c) dando como resultado bordes elevados atractivos (verde) y repulsivos (rojo) (d) para obtener una segmentación final (e). En aras de la claridad, mostramos solo un subconjunto de bordes elevados.

Horvnakova y col. en [15] mostró que este problema, que denominan Lifted Multicut ya que corresponde al problema de partición de Multicut con bordes elevados adicionales (de largo alcance), se puede resolver en un tiempo razonable para problemas de tamaño pequeño, mientras que Beier et al. en [4] introdujo un solucionador aproximado eficiente. El Multicorte elevado con bordes elevados densos y de corto alcance ya se ha aplicado al problema de la segmentación neuronal [3]. Allí, los pesos de los bordes levantados se aprendieron directamente de las segmentaciones de la verdad del suelo. Si bien la introducción de bordes elevados densos y de corto alcance ya mejora la segmentación en comparación con la partición Multicut regular, no permite expresar conocimiento biológico explícito o aprendido sobre la morfología compleja del objeto o sobre las relaciones entre diferentes entidades semánticas. La explotación de ese conocimiento es el objetivo de esta contribución.

Para el problema de la segmentación de la imagen, el gráfico del problema de partición Multicorte corresponde al gráfico de adyacencia de la región de los píxeles o superpíxeles de la imagen. Los nodos del gráfico se pueden asignar directamente a ubicaciones espaciales en la imagen. El conocimiento de dominio expresado como reglas de que ciertas ubicaciones deben o no deben pertenecer al mismo objeto puede, por lo tanto, destilarse en bordes elevados entre estas ubicaciones. Los pesos de tales aristas levantadas se derivan de la rigurosidad de las reglas, que coloquialmente pueden oscilar entre "normalmente pertenecen / no pertenecen al mismo objeto" a "siempre / nunca pertenecen al mismo objeto".

Demostramos la validez de este enfoque para tres aplicaciones, incorporando diferentes tipos de conocimiento de dominio en el marco multicut elevado:

utilizando indicadores de atribución de axón / dendrita para evitar fusiones entre procesos neuronales axonales y dendríticos,

utilizando la morfología de objetos aprendidos para detectar y corregir procesos neurales fusionados falsamente y

utilizando la segmentación semántica de estructuras biológicas para disminuir el número de falsas divisiones en la segmentación de ejemplo de coanocitos de esponja.

La figura 1 ofrece una descripción general de las tres aplicaciones. Para los tres, el conocimiento adicional del dominio nos permite mejorar significativamente la precisión de la segmentación. Con el objetivo de aplicar el método a datos de tamaño biológicamente relevante, introducimos adicionalmente un nuevo solucionador escalable para el problema de múltiples cortes elevados basado en nuestro trabajo anterior de [30].


Segmentación y seguimiento celular en 4D

¡Hola tios! Estoy tan feliz de haberme encontrado con este subreddit. Tengo un gran desafío en mi investigación actual sobre neurogénesis y me encantaría cualquier información que alguien pudiera proporcionar aquí.

Estoy tomando imágenes de microscopía de dos fotones de cerebros vivos como pilas Z a lo largo del tiempo (Serie T 4D). Ahora, me gustaría segmentar neuronas con una morfología específica y rastrearlas a medida que migran con el tiempo a través de X, Y y Z.

Probé la segmentación de Weka entrenable en ImageJ, que segmenta solo en 3D, y todavía estoy trabajando en entrenar al clasificador y aplicarlo al resto de las pilas, para intentar descubrir cómo vincular los segmentos y rastrearlos más tarde.

Sin embargo, este no parece ser el proceso más eficiente, por lo que me pregunto si alguien tiene experiencia con otro software o complementos en ImageJ que puedan segmentar formas extrañas en 3D y realizar un seguimiento en 4D en el mismo programa.

Estaría eternamente agradecido si alguien tuviera alguna idea de su propia experiencia con este tipo de datos.

¡También espero que todos estén sanos y salvos en este tiempo loco!

Editar: Me pidieron que proporcionara una foto. La foto que he adjuntado a continuación es un plano único ampliado de cómo se ven las imágenes, después de la corrección de movimiento y algunos ajustes de contraste. Imagine la imagen adjunta como una hiperestack gigante con 200 fotogramas en Z y 18 puntos de tiempo por fotograma. Las células que estoy buscando segmentar y rastrear son los neuroblastos largos que parecen espermatozoides, que afortunadamente son más brillantes que el tejido circundante.


Abstracto

El reconocimiento de objetos granulares o de gotas es una tarea de procesamiento de imágenes con una rica experiencia en aplicaciones, que van desde la segmentación de células / núcleos en biología hasta el reconocimiento de nanopartículas en física. En este estudio, establecemos un marco nuevo y completo para el reconocimiento granular de objetos. Agrupación de densidad local y análisis de componentes conectados constituyen la primera etapa. Para separar los objetos superpuestos, proponemos además un enfoque de cuenca hidrográfica modificado llamado cuenca hidrográfica de barrera de gradiente, que incorpora mejor la información del gradiente de intensidad en el marco de la cuenca geométrica. También revisamos el procedimiento de búsqueda de marcadores para incorporar un paso de agrupación en todos los marcadores encontrados inicialmente, agrupando potencialmente varios marcadores dentro del mismo objeto. Luego, la cuenca hidrográfica de barrera de gradiente se realiza en función de esos marcadores, y el gradiente de intensidad en la imagen guía directamente el flujo de agua durante el proceso de inundación. También proponemos un esquema importante para la detección de bordes y la separación de frente / fondo llamado enfoque de momento de intensidad. Los resultados experimentales para una amplia variedad de objetos en diferentes disciplinas, incluidas imágenes de células / núcleos, imágenes de colonias biológicas e imágenes de nanopartículas, demuestran la efectividad del marco propuesto.


Buscando un problema de segmentación de células duras - Biología

Un algoritmo generalista para la segmentación de células y núcleos.

Este código fue escrito por Carsen Stringer y Marius Pachitariu. Para obtener más información sobre Cellpose, lea el periódico o vea la charla. Para obtener asistencia, abra un problema.

Si desea mejorar Cellpose para usted y para todos los demás, considere contribuir con segmentaciones manuales para algunas de sus imágenes a través de la interfaz GUI incorporada (consulte las instrucciones a continuación).

Pytorch es ahora el software de red neuronal profunda predeterminado para celular. Mxnet seguirá siendo compatible. Para instalar mxnet (CPU), ejecute pip install mxnet-mkl. Para usar mxnet en un cuaderno, declare torch = False al crear un modelo, p. Ej. modelo = modelos Celular (antorcha = Falso). Para usar mxnet en la línea de comando, agregue la bandera --mxnet, p. Ej. python -m cellpose --dir

/ images / --mxnet. La implementación de pytorch es un 20% más rápida que la implementación de mxnet cuando se ejecuta en la GPU y un 20% más lenta cuando se ejecuta en la CPU.

La dinámica se calcula mediante la interpolación bilineal de forma predeterminada en lugar de la interpolación del vecino más cercano. Establezca interp = False en model.eval para apagar. La interpolación bilineal será un poco más lenta en la CPU, pero es más rápida que el vecino más cercano si se usa la antorcha y la GPU está habilitada.

Ejecute cellpose sin la instalación local de Python

Primero puede probar Cellpose rápidamente en el sitio web (algunas funciones están deshabilitadas).

También puede ejecutar Cellpose en google colab con una GPU:

  • un cuaderno basado en código:
  • un cuaderno más fácil de usar para la segmentación 2D escrito por @ pr4deepr:
  • un cuaderno ZeroCostDL4Mic fácil de usar que incluye modelos de propósito de celda de entrenamiento, escrito por @guijacquemet:

Se recomiendan los cuadernos colab si tiene problemas con MKL o ejecuta la velocidad en su computadora local (y está ejecutando volúmenes 3D). Colab no le permite ejecutar la GUI, pero puede guardar archivos * _seg.npy en colab que puede descargar y abrir en la GUI.

Archivo ejecutable: Puede descargar un archivo ejecutable para Windows 10 o por Mac OS (High Sierra o superior) que se realizaron con PyInstaller en procesadores Intel (la aceleración MKL funciona, pero no es compatible con GPU). Tenga en cuenta que en ambos casos tardará unos segundos en abrirse.

  • los Mac OS El archivo se descargará como cellpose_mac O cellpose_mac.dms. Deberá convertirlo en un archivo ejecutable y ejecutarlo a través de la terminal:
  • los Windows 10 El archivo es un exe y puede hacer clic en él para ejecutar la GUI. También puede ejecutar utilizando la interfaz de línea de comandos, p. Ej. como cellpose.exe --dir Pictures / --chan 2 --save_png

Se admiten Linux, Windows y Mac OS para ejecutar el código. Para ejecutar la interfaz gráfica, necesitará un sistema operativo Mac posterior a Yosemite. Se requieren al menos 8 GB de RAM para ejecutar el software. Es posible que se requieran entre 16 y 32 GB para imágenes más grandes y volúmenes 3D. El software se ha probado exhaustivamente en Windows 10 y Ubuntu 18.04 y ha sido menos probado en Mac OS. Abra un problema si tiene problemas con la instalación.

Este proceso debería tomar menos de 5 minutos.

  1. Instalar una distribución Anaconda de Python - Elija Python 3.7 y su sistema operativo. Tenga en cuenta que es posible que deba usar un indicador de anaconda si no agregó anaconda a la ruta.
  2. Descargue el archivo environment.yml del repositorio. Puede hacer esto clonando el repositorio o copiando y pegando el texto del archivo en un documento de texto en su computadora local.
  3. Abra un símbolo del sistema / símbolo del sistema anaconda con conda para pitón 3 en el camino
  4. Cambie los directorios a donde está environment.yml y ejecute conda env create -f environment.yml
  5. Para activar este nuevo entorno, ejecute conda activar cellpose
  6. Debería ver (cellpose) en el lado izquierdo de la línea terminal. Ahora ejecute python -m cellpose y estará listo.

Para actualizar cellpose (paquete aquí), ejecute lo siguiente en el entorno:

Si tiene un entorno de cellpose más antiguo, puede eliminarlo con conda env remove -n cellpose antes de crear uno nuevo.

Tenga en cuenta que siempre tendrá que correr conda activar cellpose antes de ejecutar cellpose. Si desea ejecutar cuadernos jupyter en este entorno, también conda install jupyter y pip install matplotlib.

Si te sientes aventurero, también puedes intentar instalar cellpose desde tu entorno base usando el comando

Si usted tiene cuestiones con la instalación, consulte los documentos para obtener más detalles, y luego, si las sugerencias fallan, abra un problema.

Versión de GPU (CUDA) en Windows o Linux

Si planea ejecutar muchas imágenes, es posible que desee instalar una versión de GPU de antorcha (si aún no está instalado).

Antes de instalar la versión de la GPU, elimine la versión de la CPU:

Siga las instrucciones aquí para determinar qué versión instalar. Se recomienda la instalación de Anaconda junto con la versión 10.2 de CUDA. Por ejemplo, este comando instalará la versión 10.2 en Linux y Windows (tenga en cuenta que los comandos torchvision y torchaudio se eliminan porque cellpose no los requiere):

Para la versión GPU de mxnet, primero deberá instalar el kit de herramientas cuda si aún no lo ha hecho (en Windows puede ser necesario instalarlo a través de anaconda como se muestra a continuación):

Cuando actualice GPU Cellpose en el futuro, querrá ignorar las dependencias (para asegurarse de que la versión pip de antorcha no se instale):

Instalación de la versión de github

Siga los pasos anteriores para instalar las dependencias. En el repositorio de github, ejecute pip install -e. y se instalará la versión de github. Si desea volver a la versión pip de cellpose, diga pip install cellpose.

La forma más rápida de comenzar es abrir la GUI desde una terminal de línea de comandos.Es posible que deba abrir un indicador de anaconda si no agregó anaconda a la ruta:

La primera vez que se ejecuta cellpose, descarga los últimos pesos de modelos entrenados disponibles del sitio web.

Tu puedes ahora arrastrar y soltar cualquier imagen (* .tif, * .png, * .jpg, * .gif) en la GUI y ejecute Cellpose, y / o segmente manualmente. Cuando la GUI se está procesando, verá que la barra de progreso se llena y durante este tiempo no puede hacer clic en nada en la GUI. Para obtener más información sobre lo que está haciendo la GUI, puede mirar el terminal / indicador con el que abrió la GUI. Por ejemplo, los datos, consulte el sitio web o esta carpeta de Google Drive. Para obtener la mejor precisión y rendimiento en tiempo de ejecución, cambie el tamaño de las imágenes para que las celdas tengan menos de 100 píxeles de ancho.

  1. Descarga la carpeta de Google Drive y descomprímela. Estas son un subconjunto de las imágenes de prueba del artículo.
  2. Inicie la GUI con python -m cellpose.
  3. Arrastre una imagen de la carpeta a la GUI.
  4. Configure el modelo (en la demostración, todos son cyto) y el canal que desea segmentar (en la demostración, todos son verdes). Opcionalmente, configure el segundo canal si está segmentando cito y tiene un canal de núcleo disponible.
  5. Haga clic en el botón calibrar para estimar el tamaño de los objetos en la imagen. Alternativamente, puede establecer el diámetro de la celda a mano y presionar ENTER. Verá el tamaño que estableció como un disco rojo en la parte inferior izquierda de la imagen.
  6. Haga clic en el botón Ejecutar segmentación. Si se marca MÁSCARAS ACTIVADAS, debería ver máscaras dibujadas en la imagen.
  7. Ahora puede hacer clic en las teclas de flecha IZQUIERDA / DERECHA para moverse por la carpeta y segmentar otra imagen.

En las imágenes de demostración, cada uno de estos pasos debería ejecutarse en menos de unos segundos en una computadora portátil o de escritorio estándar (con mkl funcionando).

Para tiff multicanal, multi-Z, el formato esperado es Z x canales x Ly x Lx.

Contribuir con datos de entrenamiento

Estamos muy emocionados de recibir contribuciones de la comunidad a los datos de entrenamiento y reentrenar el modelo de citoplasma para mejorarlo. Siga estas pautas:

  1. Ejecute cellpose en sus datos para ver qué tan bien funciona. Intente variar el diámetro, lo que puede cambiar un poco los resultados.
  2. Si hay relativamente pocos errores, no será de mucha ayuda contribuir con datos etiquetados.
  3. Si hay errores constantes, es probable que sus datos sean muy diferentes de los del conjunto de capacitación, y debe esperar mejoras importantes al contribuir incluso con unas pocas imágenes segmentadas manualmente.
  4. Para las imágenes que contribuya, las celdas deben tener al menos 10 píxeles de diámetro y debe haber por lo menos varias docenas de celdas por imagen, idealmente

Si tiene problemas con el modelo de núcleo, abra un problema antes de aportar datos. Las imágenes de núcleos son generalmente mucho menos diversas y creemos que el conjunto de datos de entrenamiento actual ya cubre un gran conjunto de modalidades.

La GUI tiene dos funciones principales:

Hay una ventana de ayuda en la GUI que proporciona más instrucciones y una página en la documentación aquí. Además, si coloca el cursor sobre ciertas palabras en la GUI, sus definiciones se revelan como información sobre herramientas. A continuación, se muestra un resumen de sus funciones:

Ejecute python -m cellpose y especifique los parámetros como se muestra a continuación. Por ejemplo, para ejecutar en una carpeta con imágenes donde el citoplasma es verde y el núcleo es azul y guardar la salida como png:

Puede especificar el diámetro de todas las imágenes o establecerlo en 0 si desea que el algoritmo lo calcule imagen por imagen. A continuación se explica cómo ejecutar datos nucleares (escala de grises) donde el diámetro se estima automáticamente:

Puede verificar si cellpose está ejecutando la versión MKL (si está usando la CPU, no la GPU) agregando el indicador --check_mkl. Si no está utilizando MKL, la función celular será mucho más lenta. Aquí están los tiempos de ejecución de Cellpose divididos en el tiempo que lleva ejecutar la red neuronal profunda (DNN) y el tiempo para el posprocesamiento (seguimiento de gradientes, segmentación, control de calidad, etc.). El tiempo de ejecución de DNN se muestra usando una GPU (Nvidia GTX 1080Ti) o una CPU (Intel 10-core 7900X), con o sin conjunto de red (4net vs 1net). El tiempo de ejecución de posprocesamiento es similar independientemente del conjunto o la versión de CPU / GPU. El tiempo de ejecución se muestra para diferentes tamaños de imagen, todas con un diámetro de celda de 30 píxeles (el promedio de nuestro conjunto de entrenamiento).

256 pix 512 píxeles 1024 píxeles
DNN (1net, GPU) 0.054 segundos 0,12 s 0,31 s
DNN (1net, CPU) 0,30 s 0,65 s 2,4 s
DNN (4net, GPU) 0,23 segundos 0,41 s 1,3 s
DNN (4net, CPU) 1,3 s 2,5 s 9,1 s
Postprocesamiento (CPU) 0,32 segundos 1,2 s 6,1 segundos

cellpose se basa en los siguientes paquetes excelentes (que se instalan automáticamente con conda / pip si faltan):


Métodos

Se analizaron un total de 18 secuencias de imágenes 5-D que muestran células madre neurales de ratón adulto, células ependimarias y vasculatura. Se obtuvieron imágenes de las células madre dentro de un cultivo de explante integral en 3D de la zona subventricular (SVZ) del cerebro. Cada ubicación de vóxel 5-D se especifica como (X,y,z,t,& # x003bb) dónde & # x003bb se refiere a una señal de fluorescencia multicanal, un canal de formación de imágenes de NSC, el segundo canal que contiene células ependimarias y vasculatura. Las películas fueron capturadas con dos microscopios en dos laboratorios diferentes. Los conjuntos completos de SVZ se disecaron bajo un microscopio de disección como se describió anteriormente [7, 8] de ratones transgénicos que expresan proteína verde fluorescente o rojo tomate fluorescente en células madre neurales (FVB / N-Tg (GFAPGFP) 14Mes / J, el Laboratorio Jackson Ascl1 tm1 .1 (cre / ERT2) B6.Cg-Gt (ROSA) 26Sortm9 (CAG-tdTomato), NSCI). Brevemente, se extrajo el cerebro y se dividió por la mitad y se despegó la corteza para revelar la SVZ. Se utilizó un bisturí para hacer un corte de 2 & # x020134 mm en el lado estriado de la SVZ y se usaron pinzas de relojero para cortar la SVZ en los lados anterior y posterior y se transfirieron cuidadosamente a una solución salina tamponada con fosfato que contenía 5 & # x003bcg / ml de Alexa Fluor 647 conjugada con Isolectina GS-IB4 (Life Technologies) en hielo durante 20 minutos para marcar el epéndimo y los vasos sanguíneos. Los montajes completos de SVZ se transfirieron con el lado de SVZ hacia abajo a un plato de cultivo con fondo de vidrio (MatTek Corporation) y se inmovilizaron cubriéndolos con Matrigel frío (4 & # x000b0C) libre de factor de crecimiento (BD Biosciences) y se transfirieron inmediatamente a una incubadora fijada a 37 & # x000b0C con 5% CO2 durante 20 minutos para permitir que el Matrigel se solidifique. Se añadió medio de cultivo en rodajas recién hecho a la placa de cultivo y la placa se colocó en un microscopio confocal Zeiss LSM780 equipado con un recinto ambiental fijado a 37 ° C y 5% de CO2. El orificio se fijó en 2 pilas AU y Z (25 1 & # x003bcm pasos) se recogieron cada 20 minutos usando un objetivo 20X durante 16 horas. La resolución espacial fue 512 & # x000d7512, con un espaciado de píxeles de 0,8 & # x003bcm para un total de 1,3 GBytes de datos de imagen a 32 bits por vóxel (BPV). Con esta resolución, toda la secuencia de imágenes se puede descargar a la RAM de vídeo en una tarjeta de 1,5 GB, dejando espacio para el búfer de fotogramas y el búfer trasero. Las imágenes también se capturaron en un microscopio confocal Zeiss LSM510 con una resolución espacial de 1024 & # x000d71024 con un espaciado de píxeles de 0,3 & # x003bcm por hasta 20 horas, lo que da como resultado hasta 5 GBytes de datos de imagen por secuencia. Estas secuencias más grandes requieren que los datos de la secuencia de imágenes se almacenen en la memoria del sistema, una tarea que es manejada automáticamente por el controlador de pantalla. Curiosamente, se observó una menor proliferación en las secuencias de imágenes capturadas en la resolución espacio-temporal más alta. Una vez que se han capturado los datos de la secuencia de imágenes 5-D, se importan directamente desde el archivo de salida del microscopio utilizando la aplicación Bioformats de código abierto.

El procesamiento de los datos de la secuencia de imágenes 5-D comienza con el uso de la herramienta BioFormats [9] de código abierto para convertir los datos nativos del microscopio (archivo Zeiss LSM) en imágenes tiff de intensidad valorada. El uso de BioFormats permite que LEVER 3D funcione no solo con los formatos de archivo específicos de Zeiss, sino también con los formatos de archivo utilizados por la mayoría de los principales fabricantes de microscopios. Además de los datos de la imagen, BioFormats extrae la configuración de la imagen, incluida la resolución espacio-temporal utilizada para tener en cuenta la anisotropía de la imagen, lo que proporciona una escala para el seguimiento y los cálculos basados ​​en la distancia.

Figura & # x200B La Figura 1 1 ilustra el flujo de datos y los pasos de procesamiento que se utilizan para pasar de los datos de secuencia de imágenes de entrada sin procesar a un rastreo y linaje clonal completamente validado y corregido. Figura & # x200B La Figura 1 1 también ilustra los principales componentes de software utilizados, incluido CUDA para el procesamiento eficiente de imágenes desde C ++, MATLAB para visualización 2-D del árbol de linaje y análisis y exportación de datos, y Direct 3D para visualización y renderizado 3-D. Cada uno de estos pasos se describe con más detalle en el resto de esta sección.

Diagrama esquemático de LEVER 3-D. Este diagrama de flujo muestra el proceso en el que LEVER 3-D utiliza algoritmos automatizados junto con las entradas del usuario para crear un árbol de linaje corregido al 100%. Observe el bucle de retroalimentación del & # x0201cValidación y corrección& # x0201d sección de nuevo en & # x0201cSegmentación& # x0201d y & # x0201cSeguimiento& # x0201d.

Eliminación de ruido de fondo

La microscopía de fluorescencia confocal y multifotónica de células madre vivas es una batalla entre capturar suficiente señal y la alteración de la muestra. La obtención de imágenes se realiza de una manera que maximiza la relación señal / ruido (SNR) de los datos de la imagen y, al mismo tiempo, es mínimamente invasiva. El uso de menos energía de excitación provoca menos fototoxicidad y perturbación a las células sensibles en proliferación. Esto significa que, en la práctica, la SNR termina siendo bastante baja. Una forma de mejorar el análisis de este gran volumen de datos de secuencia de imágenes desafiantes es aplicar técnicas de preprocesamiento que modelen los datos dinámicos subyacentes y los procesos de ruido. Aquí utilizamos dos técnicas diferentes de eliminación de ruido de fondo para la célula madre y el canal de vasculatura para que coincidan mejor con las características de los objetos de los que se toman imágenes. Estos algoritmos de eliminación de ruido de fondo proporcionan la ventaja tanto de eliminar el ruido como de proporcionar una mejora adaptativa del contraste. Esto simplifica y mejora el rendimiento de la transformación de visualización posterior, así como los algoritmos de segmentación de vasos y células.

Para el canal de células madre, adaptamos la técnica de eliminación de ruido de fondo descrita por Michel. et al. [10] que modela el ruido como una señal de ruido de fondo de baja frecuencia variable lenta combinada con un proceso de ruido aleatorio (disparo). Nuestro enfoque difiere ligeramente en que, en lugar de utilizar la teoría de valores extremos y el enfoque de picos sobre los umbrales para detectar partículas fluorescentes, utilizamos un enfoque de segmentación basado en la morfología matemática combinada con una transformada adaptativa de Otsu [11] en la imagen filtrada como se describe en el & # x0201cSegmentación& # x0201d sección. Esta técnica funciona de la siguiente manera: dada la imagen observada que modelamos como una combinación de fondo de baja frecuencia (B), ruido de disparo aleatorio (R) y la imagen original (eliminada) que deseamos recuperar,

La contribución de fondo de baja frecuencia (B) se estima utilizando un filtro de paso bajo (gaussiano). El usuario puede establecer el tamaño de la vecindad para el filtro gaussiano, pero el valor predeterminado es 100 en cada (X, Y, Z) dimensión. Al restar los resultados de este filtro que tenía una gran vecindad, se conserva la estructura. Hacer que el vecindario sea demasiado pequeño restará demasiada estructura y la imagen perderá una energía general sustancial. Hemos encontrado que los tamaños de los vecindarios en el rango 75 & # x02013250 dan resultados esperados. Sin embargo, superar los 100 produce rendimientos reducidos. Después de restar el componente de fondo estimado de la imagen observada, el ruido de disparo de alta frecuencia se elimina utilizando un filtro mediano para producir la imagen final de células madre sin ruido utilizada en las funciones de transferencia de visualización y el algoritmo de segmentación.

El enfoque de eliminación de ruido anterior funciona bien en el canal de células madre donde los vóxeles de primer plano (o píxeles con una tercera dimensión) se encuentran en regiones de alta frecuencia relativamente pequeñas correspondientes a las células. En el canal de vasculatura, los vóxeles de primer plano pueden constituir grandes porciones de la imagen correspondientes a regiones densas de vasos sanguíneos. Para eliminar el ruido del canal de vasculatura, hemos adoptado un enfoque de eliminación de ruido diferente utilizando campos aleatorios de Markov [12] y una estimación global de la varianza del ruido en lugar de la estimación de fondo local utilizada en el canal de células madre. Esta es una técnica iterativa que primero estima la variación de ruido de la imagen original. I 0 al convolucionarlo con un operador laplaciano. Esta estimación de la varianza del ruido se utiliza como la condición de parada para nuestra eliminación de ruido iterativa donde mantenemos el norte la imagen que es tan diferente de la imagen original como predijo nuestro estimador de ruido,

Cada iteración cambia un vóxel por el valor mínimo & # x00394, donde & # x00394 = minq,r& # x02208I,q& # x02260r|vq& # x02212vr| y vI es el conjunto finito de valores de voxel en la imagen. En otras palabras, & # x00394 es el espacio mínimo encontrado en el histograma actual. Cada iteración ajusta la intensidad de cada vóxel por un & # x00394 dependiendo del gradiente de la vecindad, como se define como:

Este gradiente decente / acento se continúa hasta que se cumple el criterio de parada. Los algoritmos de eliminación de ruido de fondo tanto para la vasculatura como para los canales de células madre simplifican la segmentación, el registro y la visualización. La eficiencia de todos los pasos posteriores aumenta considerablemente si se puede extraer una señal & # x0201cpure & # x0201d.

Registro

Uno de los siguientes pasos del preprocesamiento de imágenes estáticas grandes es el registro. Una estructura particularmente interesante que produce células madre a lo largo de la vida del mamífero es la zona subventricular (SVZ) en el cerebro. En estudios anteriores, solo se han examinado subsecciones de la SVZ [13]. Las subsecciones eran necesarias debido a que el campo de visión era pequeño dado el gran aumento. Preferiríamos poder inspeccionar la estructura de la SVZ con la mayor resolución posible. Tener una resolución subcelular significa que podemos comparar diferentes poblaciones con un mayor nivel de precisión. Sin embargo, es posible que las subsecciones no contengan las estructuras correspondientes que se alineen exactamente entre los experimentos. Nuestra solución a este problema es dividir la SVZ en un mosaico de subsecciones superpuestas de alta resolución. Estas imágenes luego se reconstruyen en una imagen de gran volumen de ultra alta resolución de toda la estructura.

Aquí detallamos una optimización novedosa de este problema aprovechando las limitaciones dadas por la estructura de la muestra y la modalidad de imagen. Con los microscopios modernos, la posición del escenario se almacena en los metadatos de cada captura de imagen. Conocer la posición aproximada del escenario de las subsecciones entre sí restringe qué imágenes pueden tener adyacencia. Esta información es suficiente para reconstruir toda la estructura. Sin embargo, los resultados dejan mucho que desear. Las posiciones iniciales de reconstrucción se muestran como líneas verdes en la Figura & # x200B Figura 2. 2. Durante el proceso de obtención de imágenes, la muestra puede desplazarse en relación con la platina, lo que hace que la posición de la platina sea insuficiente para el registro. Esto puede deberse a la vibración de la platina, la deriva mecánica, la deshidratación o el asentamiento del corte de tejido, así como la extracción del portaobjetos entre imágenes. Estas inexactitudes de posición se pueden superar rápidamente utilizando las regiones de imagen superpuestas para encontrar los desplazamientos relativos (registro) del mosaico de imágenes.

Reconstrucción de toda una SVZ. La imagen es el resultado de registrar 34 subsecciones de una zona subventricular de un ratón. El registro que utiliza solo los datos de posición de la platina del microscopio se indica con una línea discontinua verde. Las líneas sólidas azules representan un árbol de expansión máximo que indica qué borde de la subsección se registró, p.ej. la subsección 22 se registró en 18, 21 y 23, mientras que la subsección 11 solo se registró en 12. Las líneas discontinuas rojas indican la posición final de cada subsección después del registro. El registro ocurre en el z dirección también, no se muestra aquí.

La complejidad del problema de registro puede reducirse por el hecho de que las imágenes constan de un solo punto de tiempo y que cada imagen en el montaje está orientada ortogonalmente a la etapa de formación de imágenes. Un montaje con una gran cantidad de subsecciones, acercándose a 100, implica que la muestra tiene que ser estática en el tiempo. Generar imágenes de una subsección requiere mucho tiempo y, cuando se inicia otra columna o fila, las secciones superpuestas habrían cambiado demasiado para poder reconstruirlas. La siguiente suposición proviene del movimiento de la propia platina del microscopio. El escenario se mueve de tal manera que las subsecciones están todas en ángulo recto entre sí en forma de tablero de ajedrez. Nuestra última suposición es que el volumen solo se deformará en la dirección de la gravedad. Esto es consistente con la sedimentación y la deshidratación. Debería haber solo una subsección en esta dirección. Esto alivia la necesidad de transformaciones como rotación, cizallamiento y deformación al registrar. Basándonos en estos supuestos, podemos formular un algoritmo de registro de traducción eficaz y preciso.

La siguiente técnica funciona mejor con un canal con estructuras semi-dispersas únicas que abarcarán subregiones de imágenes. El canal de vasculatura SVZ & # x02019s es un ejemplo ideal de tal estructura. El primer paso en nuestro método de registro es crear una imagen de máxima intensidad a lo largo de la dirección de una sola subsección como se indica en el párrafo anterior. Las dos proyecciones de intensidad máxima superpuestas se desplazan luego a lo largo de los dos ejes restantes entre sí, según lo definido por un área con ventana alrededor de los datos de posición del escenario. Cada puesto se evalúa para determinar qué tan bien encajan. Usamos el covarianza normalizada entre los dos volúmenes superpuestos, normcov en la Ecuación 4, para cuantificar la similitud y seleccionar el valor máximo. Una vez que se encuentra la mejor coincidencia, usamos los volúmenes de superposición 3-D originales (ya no las imágenes de intensidad máxima) para encontrar el mejor registro a lo largo del eje restante. Los beneficios de este método son que es robusto a la variación en los parámetros de imagen como la intensidad (restando la media & # x003bc) y contraste (normalizando sobre la varianza & # x003c3), además de ser agnóstico del objeto. Esta técnica también funciona directamente en las imágenes en lugar de requerir un procesamiento previo para determinar un conjunto de puntos característicos que se utilizan en esquemas de registro más complejos.

Cada subsección superpuesta se evalúa y almacena en una estructura de gráfico. Los nodos representan un desplazamiento de la posición original del escenario. Cada borde es la medida de covarianza normalizada en el desplazamiento dado. Luego dejamos caer los bordes de puntuación más baja hasta que nos quedemos con un árbol de expansión máximo, representado por la línea azul en la Figura & # x200B Figura 2.2. Esto nos permite anclar una sola subimagen y seguir este árbol de expansión máximo asignando valores delta relativos al cambio del nodo anterior en el gráfico. En otras palabras, se elige un nodo para que sea estacionario (la posición se basa únicamente en los datos de posición del escenario). El delta para cada nodo conectado a este nodo raíz se basa únicamente en el cambio de posición de registro. Cada delta subsiguiente en una ruta de bordes se calcula a partir del delta acumulativo de la raíz y delta del registro local. Las posiciones finales se pueden ver como las líneas rojas en la Figura & # x200B Figura 2. 2. Una vez que se han calculado los deltas para cada subimagen, se puede crear una imagen reconstruida final. Dado que cada canal de una subimagen en particular se ha tomado al mismo tiempo, podemos registrar cada canal usando solo un valor delta. Figura & # x200B La Figura 3 3 muestra un SVZ completamente registrado que contiene cinco canales. El archivo adicional 1 muestra el mismo volumen girando y haciendo zoom en una región de interés. Estas imágenes luego se exportan como archivos tiff grandes junto con archivos de metadatos actualizados que contienen las nuevas dimensiones. La imagen de la Figura & # x200B Figura3 3 tiene unas dimensiones de 10.173 píxeles en X, 3,858 en y, 74 en zy cinco canales. Estas imágenes recién exportadas ahora están listas para procesarse como cualquier otra imagen recibida del microscopio.

Montaje 3-D totalmente registrado con 5 canales. Esta imagen ha sido reconstruida y renderizada usando la ventana de vista 3-D con ajustes realizados en la interfaz de la función de transferencia en la Figura & # x200B Figura 5. 5. Los canales son: vasos sanguíneos (rojo), núcleos celulares (azul oscuro), células madre neurales y astrocitos (verde), oligodendrocitos (amarillo) y neuroblastos migratorios (cian).

Segmentación

En aplicaciones anteriores que implicaban la segmentación de células madre y el seguimiento en secuencias de imágenes 2-D de contraste de fase [5, 6, 14], hemos descubierto que el desafío más importante para la segmentación de células madre es identificar el número correcto de células en cada componente conectado de primer plano. píxeles. En un marco dado, el número de celdas en un área determinada puede ser ambiguo incluso para un experto en el dominio. La ambigüedad surge cuando las células se tocan y ocurre con mayor frecuencia inmediatamente después de un evento de mitosis. Esto también puede ocurrir cuando hay una alta densidad de células. Según nuestra experiencia, es más fácil resolver la segmentación correcta en imágenes 3-D en comparación con imágenes 2-D tanto para algoritmos humanos como automatizados. El problema de estimar el número de celdas en cualquier componente conectado de vóxeles en primer plano es más fácil en 3-D debido a la naturaleza discriminativa del canal espacial extra. La salida del algoritmo de eliminación de ruido mejora la precisión de la segmentación al eliminar los datos que no están directamente relacionados con los vóxeles de primer plano. Nuestras técnicas de eliminación de ruido son especialmente útiles para preservar los límites del gradiente entre celdas y pueden eliminar la ambigüedad.

Nuestro algoritmo de segmentación comienza aplicando un umbral adaptativo a todos los canales, utilizando un filtro CUDA Otsu [11]. Esto da como resultado una imagen binaria de vóxeles de primer plano y de fondo. Se aplica un operador de cierre morfológico que utiliza un elemento estructurador de bola binaria para eliminar los agujeros erróneos en las estructuras. El canal de células madre se procesa a continuación con un filtro de imagen de componente conectado y cualquier componente conectado menor de 19 & # x003bcSe descartan m 3 de volumen. El usuario puede establecer empíricamente este valor antes de ejecutar el algoritmo de segmentación y depende únicamente del tipo de celda. La eliminación de objetos que caen por debajo del volumen esperado más pequeño de un tipo de celda determinado reduce las segmentaciones falsas que normalmente se atribuyen al ruido. Finalmente, el casco convexo de los vóxeles de primer plano para cada celda se calcula utilizando el paquete QHULLS de código abierto [15], creando listas de facetas y vértices para cada celda. Los cascos convexos generados por QHULLS luego se cargan en los búferes de índice y vértice de Direct 3D.

El canal de vasculatura se procesa de manera similar. Siguiendo el umbral adaptativo, se calcula un mapa de distancia utilizando el filtro de mapa de distancia MATLAB. Esto proporciona la distancia desde cada vóxel al vóxel de primer plano más cercano y se utiliza en el análisis posterior para cuantificar la distancia entre cada celda y su recipiente más cercano. Los resultados de la segmentación de células madre se pasan a continuación al algoritmo de seguimiento para establecer correspondencias temporales entre los resultados de la segmentación y asignar ID de seguimiento a cada célula.

Seguimiento

Una vez que las células han sido segmentadas, utilizamos un enfoque llamado Seguimiento de Asociación Multitemporal (MAT) [6, 16] para establecer correspondencias temporales entre los resultados de la segmentación. MAT es un enfoque de seguimiento basado en gráficos que, para cada fotograma, evalúa una función de costo multitemporal que se aproxima al bayesiano. posteriormente probabilidad de asociación entre el conjunto actual de pistas y todas las extensiones de pista factibles hasta un tamaño de ventana fijo W. En el seguimiento de múltiples hipótesis, este problema de asociación de datos se resuelve normalmente mediante una asignación bipartita o multidimensional, que es NP-hard y requiere un modelado explícito de condiciones específicas de imágenes, incluidas oclusiones, detecciones extrañas y perdidas. En cambio, MAT utiliza un enfoque de árbol de expansión mínimo para resolver el problema de asociación de datos. Se basa únicamente en el comportamiento dinámico celular típico de movimiento suave y es independiente de las condiciones de imagen. Además de los resultados actuales de seguimiento de células madre en 3-D, MAT ha logrado excelentes resultados para cientos de in vitro (2-D) secuencias de imágenes de células madre neurales embrionarias y adultas de ratón, así como células madre hematopoyéticas y células progenitoras retinianas de rata [6] y se ha aplicado para rastrear el transporte de orgánulos de alta densidad a lo largo del axón [16]. Todas las películas de células madre rastreadas por MAT en 2-D y 3-D se procesaron con la misma implementación.

Para extender las pistas desde el marco t para t+1, denotamos una pista parcialmente construida que termina en el I a detección en el cuadro t como, y denotan el conjunto de todas las extensiones factibles que pasan por el j a detección en el cuadro t+1 como. El costo de la ventaja Cij en el gráfico de seguimiento se le asigna el costo mínimo de extender la pista parcial a través de la j la detección en el siguiente cuadro. Bordes satisfactorios y para cualquier metro& # x02260I y norte& # x02260j se llaman bordes coincidentes. Si existe, extendemos cada pista a lo largo de su borde correspondiente. Para cualquier detección en t+1 sin un borde entrante coincidente, inicializamos una nueva pista. Las oclusiones, en las que una celda oculta visualmente a otra, se manejan permitiendo que las pistas que no están extendidas se consideren en cuadros posteriores.

Para rastrear células madre en las secuencias de imágenes 5-D usamos la misma función de costo usada previamente para rastrear NSCs con imágenes de contraste de fase 2-D [6], con la única modificación de usar un valor Z en la distancia del componente conectado. Definimos la distancia del componente conectado entre dos detecciones como

dónde r& # x003b1, r& # x003b2 son las coordenadas de vóxeles escalados correspondientes a los vóxeles de primer plano de las detecciones de segmentación y, respectivamente. También definimos una distancia de tamaño de detección para preservar tamaños homogéneos a lo largo de una pista determinada,

donde |& # x003b1| es el número de píxeles en el componente de detección conectado en primer plano & # x003b1. Para una extensión de ruta dada, calculamos el costo de la ruta extendida (& # x003c4,& # x003c1), como una suma ponderada de las distancias de los componentes conectados locales a lo largo de las detecciones de (& # x003c4,& # x003c1),

con & # x003c1I indicando el I la detección en el camino& # x003c4,& # x003c1). Definimos |& # x003c1| como el mínimo de la longitud de la pista o el tamaño de la ventana W. Por convención, si I& # x022640 que usamos, que permite la evaluación del costo a lo largo de la ruta completa. Este costo refleja el comportamiento esperado de las células madre neurales, es decir, las células no deben moverse mucho (pequeña distancia de los componentes conectados) y su tamaño no debe variar mucho en los fotogramas adyacentes. El término multiplicativo desalienta las pistas más cortas que de otro modo tendrían un costo menor debido a menos términos. Usamos un tamaño de ventana W= 4. Esta función de coste ha demostrado su eficacia en el seguimiento de células 2-D y 3-D, como se muestra en las aplicaciones actuales y anteriores.

Linaje

El linaje identifica las relaciones entre padres e hijas entre las células en proliferación. Nuestro enfoque de linaje utiliza las extensiones de ruta de costo mínimo descubiertas por el algoritmo MAT y almacenadas en una estructura de gráfico escasa durante el seguimiento, y es el mismo algoritmo que hemos usado previamente para el linaje 2-D [5, 6, 14]. A las celdas que constituyen pistas viables que aparecen después del primer cuadro de imagen se les asignan padres en función de estos resultados de seguimiento. Dada una pista & # x003c4recién nacido, identificamos su pista principal como,

Una vez que esto se ha completado para todas las pistas en la secuencia de imágenes, se presenta al usuario el árbol de linaje más grande (la mayoría de los nodos). Este árbol es el primero que se muestra con la expectativa de que represente el linaje biológico más interesante o el linaje que necesita la mayor cantidad de ediciones del usuario.

Los árboles de linaje tradicionales comunican datos informativos como el tiempo del ciclo celular, el número de progenie, la apoptosis, la simetría de los subárboles, etc. Para estudiar las células en su nicho, se deben medir las relaciones espaciales entre los objetos. Figura & # x200B Figura 4 y archivo adicional 2 muestra un árbol de linaje que codifica la distancia espacial entre las células madre y la vasculatura más cercana. Las líneas verticales en el árbol de linaje en la dirección del eje x se han modificado para mostrar la distancia entre una célula madre en particular y su vóxel de vasculatura más cercano en cada cuadro de imagen. En el momento de la división, el árbol de linaje muestra una célula hija más alejada de la estructura vascular mientras que la otra célula hija mantiene su distancia. También representamos el ángulo en el que las células se dividen durante la mitosis en un plano. Este plano de escisión permite la inspección cualitativa de cómo se dividen las células, así como una característica adicional para el análisis cuantitativo.

Evento de mitosis con árbol de linaje. El árbol de linaje en el panel derecho muestra un clon completo comenzando con la célula progenitora 73 que se divide en dos células hijas, 371 y 578. La y-eje representa el tiempo donde el X-axis representa la distancia de la célula a su vaso sanguíneo más cercano. El panel de la izquierda muestra la celda 73 en el marco antes de sufrir mitosis. El panel central muestra el marco en el que la celda 73 se divide en las celdas 371 y 578. El plano de escisión está representado por una malla blanca y muestra el ángulo de escisión con respecto al canal del vaso. Las muestras de las que se obtienen imágenes a lo largo del tiempo suelen tener menos canales que las muestras estáticas. La inmunofluorescencia puede ser perjudicial para el comportamiento celular natural y debe usarse con moderación. Las imágenes estáticas se pueden teñir permitiendo un mayor número de canales dado que las células ya están muertas.

Interfaz de usuario

El análisis automatizado de datos de secuencias de imágenes que muestran células en proliferación inevitablemente cometerá errores. Además de una SNR baja, estas secuencias de imágenes a menudo contienen ambigüedades visuales, p.ej. debido a que las células se dividen, entran o salen del marco de imagen etc., donde puede ser imposible incluso para un experto en el dominio humano identificar correctamente el número de celdas en un componente conectado de vóxeles en primer plano desde un solo punto de tiempo. Estos errores de segmentación provocan errores de seguimiento y alineación que luego pueden corromper el análisis final. Una vez que se han completado todos los algoritmos de análisis de imágenes automatizados, los datos deben mostrarse al usuario de tal manera que permitan que los errores se identifiquen fácilmente y se corrijan rápidamente. El enfoque adoptado aquí es mostrar los datos de secuencia de imágenes volumétricas con los resultados de segmentación y seguimiento superpuestos en una ventana de Direct 3D y el árbol de linaje en una segunda ventana de figura interactiva de MATLAB. Los componentes Direct 3D y MATLAB se ejecutan en un solo proceso de memoria, iniciado desde MATLAB y comunicándose con la memoria compartida a través de la interfaz MATLAB Mex. Esto permite la creación rápida de prototipos y secuencias de comandos directamente en el entorno de desarrollo integrado de MATLAB. Esto permite a los programadores ampliar el procesamiento de imágenes y a los biólogos acceder a sus datos directamente (muchos usuarios se ajustarán a ambos casos de uso).

La visualización de los datos volumétricos utiliza la noción de texturas tridimensionales. Los cortes de cada textura 3-D se proyectan en planos que constan de dos triángulos alineados en vista. A veces, la dimensión máxima de píxeles de estos planos abarca la profundidad del volumen de la imagen. Direct 3D mapea los datos de la imagen en los triángulos usando un sombreador personalizado. Este sombreador incorpora parámetros derivados de los controles deslizantes de la función de transferencia en la Figura & # x200B Figura 5. 5. La función de transferencia se inspiró en el trabajo de Wan et al. [17]. Actualmente hay seis colores únicos que se pueden asignar a cada canal. Como Wan et al. señalar, es difícil hacer que los colores únicos visualmente separables sean superiores a tres. Cuando se permite que los canales se mezclen alfa (transparencia entre canales), se vuelve aún más difícil diferenciar los colores que se han mezclado. LEVER 3-D permite asignar cualquiera de los colores a un canal y alternar su visibilidad.

Visor de imágenes 3-D y ventanas de función de transferencia. El panel derecho muestra los controles para establecer una función de transferencia que mapea los valores de intensidad de las imágenes originales en valores y colores en la ventana de visualización. El panel de la izquierda muestra los datos de la imagen original sin ningún cambio en la función de transferencia. El panel central muestra una imagen donde se han aplicado los ajustes de la función de transferencia que se muestran en el panel de la derecha.

Los controles deslizantes de colores para un canal asignado se utilizan para establecer una función de transferencia polinomial que asignará los valores de intensidad de la imagen original a un valor de intensidad que se coloreará y se mostrará en la ventana 3-D. El control deslizante más oscuro (superior) para un canal determinado se establecerá donde los valores bajos de la imagen original se reducirán a cero. El control deslizante más brillante (inferior) para un canal determinado se usa para establecer el umbral en el que todos los valores más grandes se asignan al valor máximo en este caso 255 para una imagen de 8 bits. El control deslizante del medio cambia la curva de la línea entre los valores máximo y mínimo. El control deslizante en el borde izquierdo se usa para establecer el multiplicador en el valor alfa base para un canal dado, lo que permite que un canal en particular sea más o menos transparente en relación con los demás. El alfa base para un píxel dado se establece en la intensidad máxima del canal en ese vóxel después de que se haya aplicado la función de transferencia. Este control deslizante opera en el rango de [0,2], donde la posición central es igual a un multiplicador de 1. El último control de interfaz de usuario que pertenece a los datos de la imagen es si iluminar la textura o no. La casilla de verificación de iluminación enciende y apaga una luz direccional global. Los datos de la imagen se iluminan utilizando la superficie normal de cada vóxel. Esta normal se aproxima directamente en el sombreador al encontrar la dirección del degradado para cada píxel en función de una vecindad 3 & # x000d73 & # x000d73. La iluminación de este tipo da una sensación más tridimensional a la imagen incluso cuando se ve en un medio bidimensional (ver Figura & # x200B Figura 5). 5). Una vez que las imágenes se configuran al gusto del usuario, pueden integrar los resultados de la segmentación en la ventana 3-D.

Luego, los datos de segmentación se cargan en la RAM de video para superponerlos al volumen de la imagen y mostrar los resultados de seguimiento y alineación. Las mallas triangulares generadas por QHULLS como el casco convexo de cada celda y los vóxeles # x02019s mediante el proceso de segmentación se cargan en búferes de vértices y índices de Direct 3D (listas de triángulos) y los colores se asignan de acuerdo con los resultados de seguimiento y alineación. El búfer de segmentación se representa mediante un segundo sombreador personalizado que se puede alternar entre desactivado, marco de alambre y sólido. El renderizador predeterminado dibuja la textura en su totalidad y luego dibuja los resultados de la segmentación además de eso. Esto significa que los triángulos de segmentación siempre se dibujarán encima de los datos de la imagen. Esto no se muestra cuando la segmentación está incrustada en otra estructura, sin embargo, se procesa a altas velocidades de cuadro. Los objetos se oscurecen entre sí basándose únicamente en su ubicación en el bucle de renderizado. El peeling profundo da más señales visuales de que un objeto está oculto por otro. Esto se logra colocando capas o & # x0201cpeeling & # x0201d de cada estructura en un orden de profundidad y entrelazándolos en el bucle de renderizado. Eso atraerá los objetos que están más cerca de la vista después de los objetos más lejanos, oscureciendo los objetos más distantes. Esto puede ralentizar el procesamiento de datos de gran volumen a velocidades no interactivas. Para mitigar este problema, se ha implementado un peeling de profundidad fragmentado [17]. Hay un control deslizante en la ventana de la función de transferencia (Figura & # x200B (Figura 5) 5) etiquetado & # x0201cPeladura& # x0201d. Esto permite [1,norte] trozos para pelar, donde norte es el recuento de vóxeles alineados con la vista del volumen. Este control deslizante se puede usar para agregar un nivel de integración de segmentación en los datos de la imagen, ya que el hardware del usuario lo permitirá y seguirá siendo interactivo. Los resultados de la segmentación son a menudo la razón de los errores en el seguimiento y el linaje y es donde tienen lugar la mayoría de las ediciones. Por eso es importante dar tantas señales visuales como sea posible para mostrar dónde está mal la segmentación. Cuando está mal, LEVER 3-D permite al usuario corregirlo manualmente.

Seleccionar una celda para visualización o edición en el volumen 3-D con el uso de herramientas bidimensionales (p.ej. puntero del mouse) puede ser un desafío. Cuando el usuario hace clic en el volumen, se utiliza una proyección inversa para encontrar la celda deseada. La proyección inversa consiste en un rayo que comienza en el origen de la vista y pasa por la posición del cursor en el plano de proyección y continúa por el espacio de volumen. A continuación, se selecciona la celda que contiene el primer triángulo que es intersectado por este rayo. Con esta celda seleccionada, el usuario puede eliminar todas las demás segmentaciones de la pantalla para dejar énfasis en la celda en cuestión. En esta configuración de vista, el usuario tiene la capacidad de reproducir la secuencia y seguir la celda en particular a través del experimento.

Una vez que se ha seleccionado una celda, el usuario puede corregir la segmentación o los resultados de seguimiento de la celda. Para corregir los resultados de la segmentación, una celda se puede dividir en norte celdas o puede eliminarse. Para dividir una celda, colocamos una mezcla de gaussianos [18] en los vóxeles de primer plano de la celda.Esto es efectivo porque una mezcla de límites de decisión gaussianos favorece las formas elipsoidales que modelan las NSC 3-D de manera más apropiada que k-medios, que favorecen formas más esféricas. Una vez que se ha corregido una segmentación, el seguimiento se vuelve a ejecutar automáticamente. La edición de segmentación proporcionada por el usuario puede & # x0201cpropagar & # x0201d inspeccionando las asignaciones de seguimiento para la segmentación original como posibles candidatos de corrección automatizada hasta que la segmentación recién agregada establezca su propia pista. Este es el mismo enfoque basado en inferencias para aprender de las ediciones proporcionadas por el usuario que se utilizó en nuestra anterior aplicación de linaje de células madre en 2-D [6].

La selección de una celda en particular también selecciona el clon para mostrar en la ventana del árbol de linaje 2-D. El árbol de linaje es una de las formas más fáciles de identificar errores en las rutinas automatizadas de análisis de imágenes debido a cualidades predecibles como eventos mitóticos espaciados regularmente, células en el árbol de linaje que existen hasta que alcanzan el final de la secuencia o un límite de marco, etc. La selección de una celda se traduce a través de una interfaz Mex a MATLAB, lo que permite alternar el clon seleccionado. La arquitectura Mex de memoria compartida permite acceder directamente a todos los resultados de segmentación, seguimiento y linaje como estructuras de datos MATLAB y aprovecha la implementación de nuestra anterior aplicación de linaje de células madre 2-D [6] para la manipulación y visualización del árbol de linaje. La interfaz Mex permite la comunicación bidireccional entre MATLAB y las interfaces de usuario de Direct 3D, lo que permite que las dos ventanas estén estrechamente acopladas y permite un enfoque de alto rendimiento para validar y corregir los algoritmos de análisis de imágenes automatizados.

El flujo de trabajo típico de LEVER 3-D procede de la siguiente manera. El usuario con acceso al programa MATLAB puede iniciar LEVER 3-D desde dentro del entorno de desarrollo de MATLAB. Esto permite al usuario integrar los componentes de análisis y visualización de LEVER 3-D con sus propios scripts. Para los usuarios que no tienen acceso a MATLAB, proporcionamos un programa independiente. Los resultados del programa independiente se pueden exportar para su análisis en otros entornos. El primer paso es especificar la ubicación de la ubicación del archivo de datos sin procesar del microscopio. Luego, los datos de la imagen se almacenan en la tarjeta gráfica y se muestran en la ventana de la imagen. Si el conjunto de datos actual se ha procesado previamente (de una sesión anterior), los resultados de la segmentación se muestran en la ventana de la imagen. El árbol de linaje que contiene la mayoría de las células se muestra en una segunda ventana. Si el conjunto de datos no está procesado, el usuario puede especificar un método de procesamiento en un canal en particular. Ahora el usuario puede explorar los datos de la imagen y validar el procesamiento automatizado. La visualización de los datos de la imagen se mejora mediante la ventana de la función de transferencia. La función de transferencia se utiliza para compensar imágenes con cantidades bajas de fluorescencia y monitores sin calibrar. Una vez que el usuario está satisfecho con los datos y la configuración de visualización, LEVER 3-D puede exportar imágenes, películas y métricas para uso externo. El archivo adicional 3 proporciona una breve descripción en vídeo del uso de la aplicación LEVER 3-D desde el entorno de MATLAB. También es posible un escenario de uso similar sin necesidad de MATLAB mediante el uso de nuestro ejecutable compilado.


Buscando un problema de segmentación de células duras - Biología

DenoiSeg: segmentación y eliminación de ruido de articulaciones

Tim-Oliver Buchholz *, 1,2, Mangal Prakash *, 1,2`` Alexander Krull 1,2,3 y Florian Jug 1,2, ^

1 Instituto Max Planck de Biología Celular Molecular y Genética, Dresde, Alemania
2 Centro de Biología de Sistemas, Dresde, Alemania
3 Instituto Max Planck de Física de Sistemas Complejos, Dresde, Alemania
^ [email protected]
* Contribución equitativa (orden alfabético).

El análisis de imágenes microscópicas a menudo requiere la segmentación de objetos, pero los datos de entrenamiento para esta tarea suelen ser escasos y difíciles de obtener. Aquí proponemos DenoiSeg, un nuevo método que se puede entrenar de un extremo a otro en solo unas pocas segmentaciones de verdad de terreno anotadas. Logramos esto al extender Noise2Void, un esquema de eliminación de ruido auto-supervisado que se puede entrenar solo con imágenes ruidosas, para predecir también densas segmentaciones de 3 clases. La razón del éxito de nuestro método es que la segmentación puede beneficiarse de la eliminación de ruido, especialmente cuando se realiza de forma conjunta dentro de la misma red. La red se convierte en un experto en eliminación de ruido al ver todos los datos brutos disponibles, mientras co-aprende a segmentar, incluso si solo hay disponibles unas pocas etiquetas de segmentación. Esta hipótesis se ve alimentada adicionalmente por nuestra observación de que los mejores resultados de segmentación en datos brutos de alta calidad (muy poco ruido) se obtienen cuando se agregan cantidades moderadas de ruido sintético. Esto hace que la tarea de eliminación de ruido no sea trivial y desencadena el efecto de coaprendizaje deseado. Creemos que DenoiSeg ofrece una forma viable de sortear el enorme hambre de datos de entrenamiento de alta calidad y permite de manera efectiva el aprendizaje de segmentaciones densas en pocas oportunidades.

Esta implementación requiere Tensorflow. Hemos probado DenoiSeg en LinuxMint 19 usando python 3.6 y 3.7 y tensorflow-gpu 1.15.

Si empiezas de cero.

Recomendamos usar miniconda. Si aún no tiene una opinión sólida, ¡úsela también!

Después de instalar Miniconda, las siguientes líneas pueden ser probablemente la forma más fácil de instalar Tensorflow y CuDNN en su máquina (Nota: Las Mac no son compatibles, y si se sienta en una máquina con Windows, todo esto también puede requerir algunas modificaciones):

Nota: es muy importante que la versión de keras sea 2.2.4 o 2.2.5, de ahí la instalación explícita anterior. Una vez hecho esto (o ya había instalado tensorflow et al.), Puede instalar DenoiSeg con una de las siguientes dos opciones:

Opción 1: PIP (versión estable actual)

Opción 2: Git-Clone e instalar desde las fuentes (versión actual de la rama principal)

Esta opción es ideal si desea editar el código. Clona el repositorio:

Cambie a su directorio e instálelo:

Ahora está listo para ejecutar DenoiSeg.

Eche un vistazo a nuestro cuaderno jupyter:

La versión actual y maestra es una versión refactorizada del código utilizado para el artículo. Esta versión refactorizada produce el mismo número que se informa en el documento, pero si desea utilizar el código exacto utilizado en el documento, continúe aquí.


Referencias

Lawrence MS, Stojanov P, Polak P, Kryukov GV, Cibulskis K, Sivachenko A, Carter SL, Stewart C, Mermel CH, Roberts SA, et al. Heterogeneidad mutacional en el cáncer y búsqueda de nuevos genes asociados al cáncer. Naturaleza. 2013 499 (7457): 214–8.

Burrell RA, McGranahan N, Bartek J, Swanton C. Las causas y consecuencias de la heterogeneidad genética en la evolución del cáncer. Naturaleza. 2013 501 (7467): 338–45.

Turajlic S, Sottoriva A, Graham T, Swanton C. Resolviendo la heterogeneidad genética en el cáncer. Nat Rev Genet. 2019 20 (7): 404–16.

Yap TA, Gerlinger M, Futreal PA, Pusztai L, Swanton C. Heterogeneidad intratumoral: ver la madera por los árboles. Sci Trans Med. 2012 4 (127): 127–1012710.

Aparicio S, Mardis E. Heterogeneidad tumoral: la secuenciación de próxima generación mejora la vista desde el microscopio del patólogo: Springer 2014. https://doi.org/10.1186/s13059-014-0463-6.

El-Deiry WS, Taylor B, Neal JW. Evolución, heterogeneidad y terapia tumoral para nuestros pacientes con cáncer avanzado: ¿hasta dónde hemos llegado ?. Am Soc Clin Oncol Educ Libro. 2017 37: 8–15.

McGranahan N, Swanton C.Herogeneidad clonal y evolución tumoral: pasado, presente y futuro. Celda. 2017168 (4): 613–28.

Zhou Z, Xu B, Minn A, Zhang NR. Perfiles de heterogeneidad genética mediante secuenciación de ARN unicelular. bioRxiv. 2019: 457622. https://doi.org/10.1101/457622.

Alizadeh AA, Aranda V, Bardelli A, Blanpain C, Bock C, Borowski C, Caldas C, Califano A, Doherty M, Elsner M, et al. Hacia la comprensión y el aprovechamiento de la heterogeneidad tumoral. Nat Med. 2015 21 (8): 846.

Oesper L, Mahmoody A, Raphael BJ. Theta: inferir heterogeneidad intratumoral a partir de datos de secuenciación de adn de alto rendimiento. Genome Biol. 2013 14 (7): 80.

McGranahan N, Swanton C.Herogeneidad clonal y evolución tumoral: pasado, presente y futuro. Celda. 2017168 (4): 613–28.

Fan X, Zhou W, Chong Z, Nakhleh L, Chen K. Hacia una caracterización precisa de la heterogeneidad clonal basada en la variación estructural. BMC Bioinformática. 2014 15 (1): 299.

Dagogo-Jack I, Shaw AT. Heterogeneidad tumoral y resistencia a las terapias contra el cáncer. Nat Rev Clin Oncol. 2018 15 (2): 81.

Singer J, Kuipers J, Jahn K, Beerenwinkel N. Identificación de mutaciones unicelulares mediante inferencia filogenética. Nat Commun. 2018 9 (1): 1–8.

Kuipers J, Tuncel MA, Ferreira P, Jahn K, Beerenwinkel N. Llamadas de números de copia de una sola celda y reconstrucción del historial de eventos. bioRxiv. 2020. https://doi.org/10.1101/2020.04.28.065755.

Shah SP, Xuan X, DeLeeuw RJ, Khojasteh M, Lam WL, Ng R, Murphy KP. Integración de polimorfismos de número de copias en análisis CGH de matriz utilizando un HMM robusto. Bioinformática. 2006 22 (14): 431–9.

Carter NP, Bebb CE, Nordenskjo M, Ponder BA, Tunnacliffe A, et al. Pcr cebado con oligonucleótidos degenerados: amplificación general del ADN diana mediante un cebador degenerado único. Genómica. 1992 13 (3): 718-25.

Navin N, Kendall J, Troge J, Andrews P, Rodgers L, McIndoo J, Cook K, Stepansky A, Levy D, Esposito D, et al. Evolución del tumor inferida por secuenciación unicelular. Naturaleza. 2011 472 (7341): 90.

Baslan T, Kendall J, Rodgers L, Cox H, Riggs M, Stepansky A, Troge J, Ravi K, Esposito D, Lakshmi B, et al. Análisis del número de copias de todo el genoma de células individuales. Protocolo Nat. 2012 7 (6): 1024.

Zafar H, Navin N, Nakhleh L, Chen K.Enfoques computacionales para inferir la evolución del tumor a partir de datos genómicos unicelulares. Curr Opin Syst Biol. 2018 7: 16–25.

Xi L, Belyaev A, Spurgeon S, Wang X, Gong H, Aboukhalil R, Fekete R. Nuevo método de construcción de bibliotecas para genomas unicelulares. Más uno. 2017 12 (7).

Gordon DJ, Resio B, Pellman D. Causas y consecuencias de la aneuploidía en el cáncer. Nat Rev Genet. 2012 13 (3): 189–203.

Mermel CH, Schumacher SE, Hill B, Meyerson ML, Beroukhim R, Getz G. Gistic2. 0 facilita la localización sensible y segura de los objetivos de la alteración focal del número de copias somáticas en los cánceres humanos. Genome Biol. 2011 12 (4): 41.

Dagogo-Jack I, Shaw AT. Heterogeneidad tumoral y resistencia a las terapias contra el cáncer. Nat Rev Clin Oncol. 2018 15 (2): 81.

Krijgsman O, Carvalho B, Meijer GA, Steenbergen RD, Ylstra B. Aberraciones del número de copias cromosómicas focales en el cáncer: agujas en un pajar del genoma. Biochim Biophys Acta (BBA) -Mol Cell Res. 2014 1843 (11): 2698–704.

Garraway LA, Lander ES. Lecciones del genoma del cáncer. Celda. 2013 153 (1): 17–37.

Gao R, Davis A, McDonald TO, Sei E, Shi X, Wang Y, Tsai P-C, Casasent A, Waters J, Zhang H, et al. Evolución del número de copias puntuadas y estasis clonal en el cáncer de mama triple negativo. Nat Genet. 2016 48 (10): 1119.

Jahn K, Kuipers J, Beerenwinkel N. Inferencia de árbol para datos de una sola celda. Genome Biol. 2016 17 (1): 86.

Ross EM, Markowetz F. Onconem: inferir la evolución del tumor a partir de datos de secuenciación unicelular. Genome Biol. 2016 17 (1): 1–14.

Zafar H, Tzen A, Navin N, Chen K, Nakhleh L. Sifit: inferir árboles tumorales a partir de datos de secuenciación unicelulares en modelos de sitios finitos. Genome Biol. 2017 18 (1): 178.

El-Kebir M. Sphyr: estimación de la filogenia tumoral a partir de datos de secuenciación unicelular bajo pérdida y error. Bioinformática. 2018 34 (17): 671–9.

Malikic S, Mehrabadi FR, Ciccolella S, Rahman MK, Ricketts C, Haghshenas E, Seidman D, Hach F, Hajirasouliha I, Sahinalp SC. Phiscs: un enfoque combinatorio para la reconstrucción de la filogenia tumoral subperfecta mediante el uso integrador de datos de secuenciación masiva y de una sola célula. Genome Res. 2019 29 (11): 1860–77.

Zafar H, Navin N, Chen K, Nakhleh L. Siclonefit: inferencia bayesiana de estructura poblacional, genotipo y filogenia de clones tumorales a partir de datos de secuenciación del genoma unicelular. Genome Res. 2019 29 (11): 1847–59.

Bäumer C, Fisch E, Wedler H, Reinecke F, Korfhage C. Exploración de la calidad del ADN de células individuales para el análisis del genoma con amplificación simultánea del genoma completo. Sci Rep.2018 8 (1): 1–10.

Xi L. Secuenciación de ADN unicelular: de analógico a digital. Cancer Res. 2017 3 (1): 161–9.

Dean FB, Hosono S, Fang L, Wu X, Faruqi AF, Bray-Ward P, Sun Z, Zong Q, Du Y, Du J, et al. Amplificación integral del genoma humano mediante amplificación de desplazamiento múltiple. Proc Natl Acad Sci. 2002 99 (8): 5261–6.

Wang Y, Waters J, Leung ML, Unruh A, Roh W, Shi X, Chen K, Scheet P, Vattathil S, Liang H, et al. Evolución clonal en el cáncer de mama revelada por la secuenciación del genoma de un solo núcleo. Naturaleza. 2014512 (7513): 155.

Hou Y, Song L, Zhu P, Zhang B, Tao Y, Xu X, Li F, Wu K, Liang J, Shao D, et al. Secuenciación del exoma unicelular y evolución monoclonal de una neoplasia mieloproliferativa jak2-negativa. Celda. 2012148 (5): 873–85.

Zong C, Lu S, Chapman AR, Xie XS. Detección de todo el genoma de variaciones de un solo nucleótido y del número de copias de una sola célula humana. Ciencias. 2012 338 (6114): 1622–6.

Zahn H, Steif A, Laks E, Eirew P, VanInsberghe M, Shah SP, Aparicio S, Hansen CL. Preparación escalable de bibliotecas unicelulares de genoma completo sin preamplificación. Métodos Nat. 2017 14 (2): 167.

Navin NE. Genómica del cáncer: una célula a la vez. Genome Biol. 2014 15 (8): 452.

Gao R, Davis A, McDonald TO, Sei E, Shi X, Wang Y, Tsai P-C, Casasent A, Waters J, Zhang H, et al. Evolución del número de copias puntuadas y estasis clonal en el cáncer de mama triple negativo. Nat Genet. 2016 48 (10): 1119.

Evaluación de la heterogeneidad tumoral con NVC unicelular. https://www.10xgenomics.com/products/single-cell-cnv/. Consultado el 18 de mayo de 2020.

Baslan T, Kendall J, Ward B, Cox H, Leotta A, Rodgers L, Riggs M, D’Italia S, Sun G, Yong M, et al. Optimización de la secuenciación dispersa de celdas individuales para la creación de perfiles de número de copias de gran multiplexación. Genome Res. 2015 25 (5): 714–24.

Baslan T, Hicks J. Enfoques de secuenciación de células individuales para sistemas biológicos complejos. Curr Opin Genet Dev. 2014 26: 59–65.

Baslan T, Hicks J. Desentrañar la biología y los paradigmas cambiantes en el cáncer con secuenciación unicelular. Nat Rev Cancer. 2017 17 (9): 557.

Ortega MA, Poirion O, Zhu X, Huang S, Wolfgruber TK, Sebra R, Garmire LX. Uso de enfoques ómicos múltiples unicelulares para resolver la heterogeneidad tumoral. Clin Transl Med. 2017 6 (1): 46.

Vitak SA, Torkenczy KA, Rosenkrantz JL, Fields AJ, Christiansen L, Wong MH, Carbone L, Steemers FJ, Adey A. Secuenciación de miles de genomas unicelulares con indexación combinatoria. Métodos Nat. 2017 14 (3): 302.

Chen C, Xing D, Bronceado L, Li H, Zhou G, Huang L, Xie XS. Análisis de genoma completo de una sola célula mediante amplificación lineal mediante inserción de transposones (lianti). Ciencias. 2017356 (6334): 189–94.

Bakker B, Taudt A, Belderbos ME, Porubsky D, Spierings DC, de Jong TV, Halsema N, Kazemier HG, Hoekstra-Wakker K, Bradley A, et al. La secuenciación unicelular revela heterogeneidad de cariotipo en neoplasias malignas murinas y humanas. Genome Biol. 2016 17 (1): 115.

van den Bos H, Spierings DC, Taudt A, Bakker B, Porubskỳ D, Falconer E, Novoa C, Halsema N, Kazemier HG, Hoekstra-Wakker K, et al. La secuenciación del genoma completo de una sola célula no revela evidencia de aneuploidía común en neuronas normales y de la enfermedad de Alzheimer. Genome Biol. 2016 17 (1): 116.

Laks E, Zahn H, Lai D, McPherson A, Steif A, Brimhall J, Biele J, Wang B, Masud T, Grewal D, et al. Recurso: la secuenciación escalable del genoma completo de 40.000 células individuales identifica aneuploidías estocásticas, estados de replicación del genoma y repertorios clonales. bioRxiv. 2018: 411058. https://doi.org/10.1101/411058.

Obtenga SNV y CNV de la plataforma Tapestri. https://missionbio.com/get-snvs-and-cnvs-from-the-tapestri-platform/. Consultado el 18 de mayo de 2020.

Mallory XF, Edrisi M, Navin N, Nakhleh L. Evaluación del rendimiento de los métodos para la detección de aberraciones en el número de copias a partir de datos de secuenciación de ADN de una sola célula. PLoS Comput Biol. 2020 16 (7): 1008012.

Estévez-Gómez N, Prieto T, Guillaumet-Adkins A, Heyn H, Prado-López S, Posada D. Comparación de estrategias de amplificación del genoma completo de una sola célula. bioRxiv. 2020. https://doi.org/10.1101/443754.

Zaccaria S, Raphael BJ. Caracterización del paisaje del número de copias específicas de alelos y haplotipos de los genomas del cáncer en una resolución de una sola célula con un cincel. bioRxiv. 2019: 837195. https://doi.org/10.1101/837195.

Wang X, Chen H, Zhang NR. Perfiles del número de copias de ADN mediante secuenciación unicelular. Breve Bioinforma. 2017 19 (5): 731–6.

Garvin T, Aboukhalil R, Kendall J, Baslan T, Atwal GS, Hicks J, Wigler M, Schatz MC. Análisis y evaluación interactivos de variaciones en el número de copias de una sola celda. Métodos Nat. 2015 12 (11): 1058.

Bentley DR, Balasubramanian S, Swerdlow HP, Smith GP, Milton J, Brown CG, Hall KP, Evers DJ, Barnes CL, Bignell HR, et al. Secuenciación precisa del genoma humano completo utilizando química terminador reversible. Naturaleza. 2008 456 (7218): 53.

Yoon S, Xuan Z, Makarov V, Ye K, Sebat J. Detección sensible y precisa de variantes del número de copias utilizando la profundidad de lectura de la cobertura. Genome Res. 2009 19 (9): 1586–92.

Boeva ​​V, Zinovyev A, Bleakley K, Vert J-P, Janoueix-Lerosey I, Delattre O, Barillot E. Llamada sin control de alteraciones de número de copia en datos de secuenciación profunda utilizando normalización de contenido GC. Bioinformática. 2010 27 (2): 268–9.

Wang R, Lin D-Y, Jiang Y. ALCANCE: un método de estimación del número de copias y normalización para la secuenciación de ADN unicelular. bioRxiv. 2019: 594267. https://doi.org/10.1101/594267.

Knouse KA, Wu J, Amon A. Evaluación de la variación del número de copias somáticas a escala megabase mediante secuenciación unicelular. Genome Res. 2016 26 (3): 376–84.

Vitak SA, Torkenczy KA, Rosenkrantz JL, Fields AJ, Christiansen L, Wong MH, Carbone L, Steemers FJ, Adey A. Secuenciación de miles de genomas unicelulares con indexación combinatoria. Métodos Nat. 2017 14 (3): 302.

Fraley C, Raftery AE. Agrupación basada en modelos, análisis discriminante y estimación de densidad. J Am Stat Assoc. 2002 97 (458): 611–31.

Fraley C, Raftery AE, Murphy TB, Scrucca L. mclust versión 4 para R: modelado de mezcla normal para agrupamiento, clasificación y estimación de densidad basados ​​en modelos. Informe técnico, informe técnico. 2012.

Fraley C, Raftery A, Scrucca L. mclust: modelado de mezcla normal para agrupamiento, clasificación y estimación de densidad basados ​​en modelos. http://www.stat.unipg.it/luca/R/. Consultado el 4 de junio de 2020.

Olshen AB, Venkatraman E, Lucito R, Wigler M. Segmentación binaria circular para el análisis de datos de números de copias de ADN basados ​​en matrices. Bioestadística. 2004 5 (4): 557–72.

Nilsen G, Liestøl K, Van Loo P, Vollan HKM, Eide MB, Rueda OM, Chin S-F, Russell R, Baumbusch LO, Caldas C, et al. Número de copia: algoritmos eficientes para la segmentación del número de copia de una o varias pistas. BMC Genomics. 2012 13 (1): 591.

Zhang NR, Siegmund DO, Ji H, Li JZ. Detección de puntos de cambio simultáneos en múltiples secuencias. Biometrika. 2010 97 (3): 631–45.

Zhang NR, Siegmund DO. Un criterio de información de Bayes modificado con aplicaciones al análisis de datos comparativos de hibridación genómica. Biometría. 2007 63 (1): 22–32.

¿Por qué no debería interpretar el árbol de agrupamiento jerárquico como una filogenia unicelular? Https: //kb.10xgenomics.com/hc/en-us/categories/360000321552-Single-Cell-CNV. Consultado el 19 de mayo de 2020.

Kimura M. Fundamento teórico de la genética de poblaciones a nivel molecular. Theor Popul Biol. 1971 2 (2): 174-208.

Karlin S, McGregor J. El número de formas mutantes mantenidas en una población. Actas del Quinto Simposio de Berkeley sobre Matemáticas, Estadística y Probabilidad. 19674: 415–38.

Kimura M, Cuervo JF. El número de alelos que se pueden mantener en una población finita. Genética. 1964 49 (4): 725.

Kuipers J, Jahn K, Raphael BJ, Beerenwinkel N. Los datos de secuenciación de células individuales revelan una recurrencia generalizada y pérdida de impactos mutacionales en las historias de vida de los tumores. Genome Res. 2017 27 (11): 1885–94.

Ciccolella S, Gomez MS, Patterson M, Della Vedova G, Hajirasouliha I, Bonizzoni P. Inferir la progresión del cáncer a partir de la secuenciación unicelular al tiempo que permite la pérdida de mutaciones. bioRxiv. 2018: 268243. https://doi.org/10.1101/268243.

McPherson A, Roth A, Laks E, Masud T, Bashashati A, Zhang AW, Ha G, Biele J, Yap D, Wan A, et al. Modos divergentes de diseminación clonal y mezcla intraperitoneal en el cáncer de ovario seroso de alto grado. Nat Genet. 2016 48 (7): 758.

Satas G, Zaccaria S, Mon G, Raphael BJ. Inferencia de la filogenia de un tumor unicelular con pérdidas de mutaciones restringidas por número de copias. bioRxiv. 2019: 840355. https://doi.org/10.1101/840355.

Shao M, Moret BM. Comparación de genomas con reordenamientos y duplicaciones segmentarias. Bioinformática. 2015 31 (12): 329–38.

Zeira R, Shamir R. Clasificación de cariotipos de cáncer mediante doble corte y unión, duplicaciones y deleciones. Bioinformática (Oxford, Inglaterra). 2018. https://doi.org/10.1093/bioinformatics/bty381.

Qingge L, He X, Liu Z, Zhu B. Sobre el problema de generación de número mínimo de copias en la genómica del cáncer. En: Actas de la Conferencia Internacional ACM 2018 sobre Bioinformática, Biología Computacional e Informática de la Salud: 2018. p. 260–9. https://doi.org/10.1145/3233547.3233586.

Zeira R, Shamir R. Problemas de reordenamiento del genoma con copias de genes únicos y múltiples: una revisión. En: Bioinformática y Filogenética. Springer: 2019. pág. 205–41. https://doi.org/10.1007/978-3-030-10837-3_10.

Dorri F, Salehi S, Chern K, Funnell T, Williams M, Lai D, Andronescu M, Campbell KR, McPherson A, Aparicio S, et al. Inferencia bayesiana eficiente de árboles filogenéticos a partir de datos unicelulares a gran escala y de baja profundidad en todo el genoma. bioRxiv. 2020. https://doi.org/10.1101/2020.05.06.058180.

Schwarz RF, Trinh A, Sipos B, Brenton JD, Goldman N, Markowetz F. Cuantificación filogenética de la heterogeneidad intratumoral. PLoS Comput Biol. 2014 10 (4). https://doi.org/10.1371/journal.pcbi.1003535.

El-Kebir M, Raphael BJ, Shamir R, Sharan R, Zaccaria S, Zehavi M, Zeira R. Problemas de evolución de números de copia: complejidad y algoritmos. En: Taller Internacional de Algoritmos en Bioinformática. Springer: 2016. pág. 137–49. https://doi.org/10.1007/978-3-319-43681-4_11.

Saitou N, Nei M. El método de unión de vecinos: un nuevo método para reconstruir árboles filogenéticos. Mol Biol Evol. 1987 4 (4): 406-25.

Fitch WM, Margoliash E. Construcción de árboles filogenéticos. Ciencias. 1967 155 (3760): 279–84.

Fitch WM. Hacia la definición del curso de la evolución: cambio mínimo para una topología de árbol específica. Syst Biol. 1971 20 (4): 406–16.

Sankoff D. Árboles de secuencias de mutación mínima. SIAM J Appl Math. 1975 28 (1): 35–42.

Felsenstein J. Árboles evolutivos a partir de secuencias de adn: un enfoque de máxima verosimilitud. J Mol Evol. 1981 17 (6): 368–76.

Schliep KP. phangorn: análisis filogenético en r. Bioinformática. 2011 27 (4): 592–3.

Litt M, Luty J. A. Un microsatélite hipervariable revelado por amplificación in vitro de una repetición de dinucleótidos dentro del gen de la actina del músculo cardíaco. Soy J Hum Genet. 1989 44 (3): 397.

Ohno S. Evolución por duplicación de genes. Berlín: Springer 1970.

Ota T, Nei M. Evolución divergente y evolución por el proceso de nacimiento y muerte en la familia de genes de inmunoglobulina vh. Mol Biol Evol. 1994 11 (3): 469–82.

Boussau B, Szöllősi GJ, Duret L, Gouy M, Tannier E, Daubin V. Coestimación a escala genómica de especies y árboles genéticos. Genome Res. 2013 23 (2): 323–30.

Swofford DL, Maddison WP. Reconstrucción de estados de carácter ancestrales bajo la parsimonia wagner. Math Biosci. 1987 87 (2): 199–229.

Pagel M. El enfoque de máxima verosimilitud para reconstruir estados de carácter ancestral de caracteres discretos en filogenias. Syst Biol. 1999 48 (3): 612–22.


Estructura del tejido vascular

En diferentes especies de plantas, el tejido vascular se organiza de manera diferente. Normalmente, las células son largas, estrechas y tubulares. El tejido vascular también se organiza a menudo en haces dentro del tallo o la hoja. A continuación se muestra una comparación del tejido vascular que se encuentra en monocotiledónea y dicotiledónea plantas.

Como puede ver, los haces vasculares en dicotiledóneas son mucho más grandes y están organizados de manera más consistente. Las especies de monocotiledóneas, por otro lado, esparcen el xilema y el floema del tejido vascular por todo el tallo. Estos dos métodos reflejan la estructura de las propias plantas. Las monocotiledóneas tienden a ser plantas como los pastos, que tienen venas y hojas que corren en paralelo. En las dicotiledóneas, como muchos árboles en flor y plantas frutales, las hojas y venas de las hojas se ramifican en varios patrones. Esta organización favorece un tejido vascular más organizado y que puede ramificarse a medida que crece la planta.

El tejido vascular funciona principalmente para mantener el equilibrio hídrico y el equilibrio del azúcar de una planta. Las células de la planta no solo necesitan agua para completar las funciones biológicas básicas, sino que también necesitan los minerales y nutrientes que se encuentran en el suelo para completar su trabajo. La mayoría de las plantas tienen pequeños poros en las hojas llamados estoma, que permiten que el agua se evapore y los gases se intercambien. Para llevar más agua y nutrientes a las células de las hojas, estos pequeños poros se abren.

A medida que el agua se evapora, las fuerzas de adhesión y cohesión tire del agua por los tubos del xilema. A medida que el agua se absorbe a través de las raíces, esto también crea una presión desde el fondo para forzar el agua hacia arriba. Los tubos del xilema son estrechos para soportar esta acción, pero hay muchos de ellos agrupados. La porción del xilema del tejido vascular se puede ver abajo, a la izquierda.

A medida que el agua sube y entra en las hojas, se necesita parte de ella para disolver los azúcares creados por la fotosíntesis y llevarlos de regreso a la planta. Recuerde que la fotosíntesis crea glucosa, que la planta utilizará como energía. La planta combina moléculas de glucosa para crear sacarosa, un azúcar de almacenamiento temporal. Las células de la raíz y otras células de los tallos y las hojas no crean su propia glucosa y dependen de la planta para que les proporcione energía. Las células del floema trabajan para transportar esta energía creada por toda la planta desde células fuente, como hojas, a hundir celdas, como los de las raíces. El tejido vascular también se encarga de controlar el flujo de nutrientes cuando la planta va creando flores y frutos, lo que afecta drásticamente el proceso.

Los agricultores han aprendido a manipular el sistema vascular de las plantas de diversas formas para modificar sus cultivos de diversas formas. Por ejemplo, al dañar el tejido vascular debajo de una fruta en una rama, los azúcares se trasladarán a la fruta. Si bien las raíces pueden sufrir, la fruta se volverá mucho más grande como resultado. Se llama anillado, y es una de las muchas técnicas utilizadas para alterar el flujo de nutrientes dentro de una planta modificando el tejido vascular.

1. ¿Cuál de los siguientes NO es un tejido vascular?
UNA. Xilema
B. Líber
C. Meristemo

2. ¿Por qué el floema está hecho de células vivas, mientras que el xilema está hecho de células muertas?
UNA. Sin razón
B. El floema participa en el transporte activo, el xilema no
C. El floema es un tejido más nuevo, el xilema simplemente ha muerto

3. ¿Por qué las plantas vasculares pueden ser mucho más altas que las plantas no vasculares?
UNA. Pueden transferir nutrientes más alto
B. Necesitan menos agua
C. Necesitan menos luz solar