Aleatorización mendeliana profunda: investigando el conocimiento causal de los modelos genómicos de aprendizaje profundo

Citación: Malina S, Cizin D, Knowles DA (2022) Aleatorización mendeliana profunda: investigación del conocimiento causal de los modelos genómicos de aprendizaje profundo. PLoS Comput Biol 18(10): e1009880. https://doi.org/10.1371/journal.pcbi.1009880

Editor: Luca Pinello, Hospital General de Massachusetts, ESTADOS UNIDOS

Recibió: 1 de febrero de 2022; Aceptado: 19 de septiembre de 2022; Publicado: 20 de octubre de 2022

Derechos de autor: © 2022 Malina et al. Este es un artículo de acceso abierto distribuido bajo los términos de la Licencia de atribución de Creative Commonsque permite el uso, la distribución y la reproducción sin restricciones en cualquier medio, siempre que se acredite el autor original y la fuente.

Disponibilidad de datos: La fuente y las instrucciones para descargar los datos utilizados para producir los resultados y análisis en este experimento se pueden encontrar en: https://github.com/an1lam/deepmr/blob/master/REPRODUCIBILIDAD.md.

Fondos: El(los) autor(es) no recibió financiación específica para este trabajo.

Conflicto de intereses: He leído la política de la revista y los autores de este manuscrito tienen los siguientes intereses contrapuestos: SM es empleado y tiene acciones en Dyno Therapeutics.

Introducción

El aprendizaje profundo (DL) ha tenido éxito en la predicción de marcas genómicas como la unión del factor de transcripción (TF) [1, 2]accesibilidad de la cromatina [2, 3]modificaciones de histonas [4]unión a proteína de unión a ARN (RBP) [1, 5–7] y empalme [8, 9] de la secuencia de ADN (o ARN). Estos modelos, a menudo redes neuronales convolucionales [10]normalmente logran una alta precisión predictiva y reconocen características de secuencia que coinciden con las encontradas por experimentos ortogonales como SELEX [11]. En particular, modelos multitarea como DeepSEA [2] y BPNet [12] puede predecir con precisión múltiples marcas genómicas simultáneamente. Siguiendo [13], definimos una «marca» como una posición en el genoma donde el número de lecturas de un ensayo epigenómico está significativamente por encima del fondo. Aquí nos preguntamos: ¿obtienen estos modelos multitarea, a través del aprendizaje de la predicción conjunta de múltiples marcas, una comprensión implícita de las relaciones mecanicistas y causales entre las marcas?

Intentamos responder a esta pregunta desarrollando la aleatorización mendeliana profunda (DeepMR). DeepMR combina en silico mutagénesis con aleatorización mendeliana (MR) [14]un enfoque de variable instrumental para la inferencia causal, para estimar los efectos causales aprendidos en modelos genómicos de DL. DeepMR obtiene estimaciones locales (nivel de secuencia) y globales (nivel de genoma) de una relación causal lineal (supuesta) entre pares de marcas aprendidas por un modelo de predicción genómica multitarea. DeepMR se basa en cuatro hilos de trabajo que abarcan el aprendizaje automático y la genética estadística.

DL para genómica funcional

Un objetivo importante en la genómica funcional es mapear las relaciones de secuencia a función entre el genotipo y los fenotipos moleculares, típicamente aprovechando los datos de observación a gran escala de ensayos de alto rendimiento como ChIP-seq. [15–18]DNase-seq [19]y ATAC-seq [20]. Comprender este mapeo permite 1) una mejor comprensión de la regulación epigenómica, 2) la interpretación de variantes y 3) una predicción más precisa de los rasgos posteriores. Sin embargo, lograr estos objetivos requiere decodificar relaciones complejas entre entradas de secuencias genómicas de alta dimensión y salidas interrelacionadas de conjuntos de datos grandes y ruidosos. Alentados por la capacidad de los modelos DL para superar desafíos similares en los campos de la visión por computadora y el procesamiento del lenguaje natural, los investigadores de genómica han entrenado modelos DL en conjuntos de datos de genómica funcional con un éxito sustancial.

El trabajo inicial mostró que DL podía predecir con precisión las relaciones de secuencia a función y demostró su promesa para identificar variantes asociadas a rasgos. Enlace profundo [1], uno de los primeros clasificadores de secuencia a función de DL, superó a los modelos más avanzados en la predicción de la unión de TF y la unión de RBP a partir de la secuencia. DeepBind y otros modelos de clasificación, por ejemplo, DeepSEA [2] y Basset [3]—también identificó variantes asociadas a rasgos con mayor precisión que los métodos anteriores. El trabajo más reciente ha aprovechado los modelos DL para mejorar nuestra comprensión de la lógica reguladora epigenómica. En particular, [12] entrenó un modelo de regresión, BPNet, para predecir la unión de cuatro TF y lo usó para diseccionar la gramática reguladora basada en motivos que gobierna su unión. Juntos, estos documentos ilustran la promesa de los modelos de DL no solo para predecir la función a partir de la secuencia, sino también para mejorar nuestra comprensión de la regulación epigenómica y la capacidad de anticipar el riesgo de enfermedad. En nuestro trabajo, buscamos evidencia de que los modelos genómicos de DL aprenden relaciones significativas de alto nivel entre las marcas de salida.

Interpretación del modelo

Los métodos de interpretación local caracterizan cómo las características específicas de entrada (secuencia) influyen en las predicciones o activaciones de capas intermedias (p. ej., mapas de prominencia). [21]retropropagación guiada [22]DeepLIFT [23]y DeepSHAP [24]). Incluso DeepLIFT, que se diseñó teniendo en cuenta la DL genómica, se centra en interpretar las predicciones de modelos individuales para un solo resultado en lugar de descubrir las relaciones entre los resultados y, por lo tanto, es complementario a nuestro trabajo.

Más cerca de nuestro trabajo, [25]El Análisis de importancia global (GIA) evalúa el tamaño del efecto global de diferentes patrones en las predicciones del modelo. Mientras se asemeja DeepMR en términos de su enfoque en los efectos globales, GIA permite a los usuarios probar hipótesis más estrechas sobre características específicas como motivos y utiliza secuencias sintéticas en lugar de observadas. Como tal, GIA también es complementario a DeepMRproporcionando potencialmente un método para descubrir patrones específicos que explican las relaciones de alto nivel descubiertas por DeepMR.

Saturación en silico La mutagénesis caracteriza cómo cambian las predicciones de un modelo para una entrada específica como resultado de todas las mutaciones puntuales posibles en la entrada. La mutagénesis de saturación se ha utilizado para evaluar las representaciones aprendidas de modelos genómicos de DL como DeepBind [1]cDeepBind [6]Mar profundo [2]y Basset [3]. Aquí, usamos mutagénesis de saturación (con estimaciones de incertidumbre generadas usando Deep Ensembles [26]) para generar un conjunto de variante estimada tamaños de efecto que luego proporcionamos como entrada a MR.

Aleatorización mendeliana

MR es una variable instrumental [30] técnica para estimar los efectos causales (típicamente lineales) en presencia de posibles factores de confusión no observados. Los enfoques de variables instrumentales permiten la inferencia causal en presencia de factores de confusión no observados aprovechando instrumentos, variables auxiliares asociadas con la supuesta causa pero independientes de cualquier factor de confusión. MR se desarrolló originalmente para inferir efectos causales a partir de datos de observación a escala de población (es decir, estudios de asociación del genoma completo, GWAS). MR aprovecha la variación genética que induce una variación fenotípica a nivel de población que es independiente de los factores de confusión posnatales para inferir efectos causales imparciales. En una demostración temprana de MR, [14] utilizó MR para estimar el efecto de la proteína C reactiva en la resistencia a la insulina. A diferencia de estudios anteriores, sus resultados sugieren que los niveles de proteína C reactiva pueden no tener un efecto significativo sobre la resistencia a la insulina. Mientras que estudios previos buscaban controlar la confusión directamente, [14] utilizan un polimorfismo de nucleótido único (SNP) en el gen CRP como variante genética (instrumento) para su análisis de RM, en el que tienen mayor confianza carece de cualquier asociación con factores de confusión posnatales. Este es uno de varios ejemplos en los que MR ayudó inferir una estimación más precisa de un efecto causal subyacente.

Aquí exploramos la aplicación de MR para estimar los efectos causales implícitos en los «datos» generados por el modelo con en silico mutaciones que toman el lugar de las verdaderas variantes genéticas. Las causas y efectos putativos son marcas genómicas como la unión de TF o la accesibilidad a la cromatina. Aplicado a los efectos variantes predichos por modelos precisos de aprendizaje automático, MR nos permite inferir la fuerza de las relaciones entre fenotipos a pesar de que estas relaciones se confundan por la influencia de otras marcas potencialmente no observadas. Si bien MR se aplica tradicionalmente a efectos observados en lugar de estimados, nuestro trabajo intenta mostrar que los efectos estimados por modelos DL pueden satisfacer las suposiciones (descritas a continuación) requeridas para estimaciones de MR válidas.

MR solo produce estimaciones válidas de efectos causales bajo supuestos específicos (Figura 1 debajo Estimar) [14]. Dejar Z ser una variable que pretendemos utilizar como instrumento (una variante genética, por ejemplo), X una supuesta causa (exposición), y Y un supuesto efecto (Salir), y suponga que puede haber una confusión no observada entre X y Ydenotado por tu. Entonces, MR da una estimación no sesgada del efecto causal de X en Y si:

  1. Z es independiente de tu (inconfundibilidad),
  2. Z no es independiente de Xy
  3. Z solo influencias Y mediante X (Restricción de exclusión).
miniatura

Figura 1. Representación gráfica de DeepMRpasos de alto nivel.

DeepMR combina en silico mutagénesis y aleatorización mendeliana (consulte la descripción general del algoritmo). Predecir corresponde a los pasos 1 a 4. Estimar corresponde al paso 5. Agregar corresponde al paso 6.

https://doi.org/10.1371/journal.pcbi.1009880.g001

Los primeros estudios de MR asumieron que todas las suposiciones de MR estaban perfectamente satisfechas y, por lo tanto, que un solo instrumento era suficiente para inferir un efecto causal. En este entorno, los efectos causales de la exposición al resultado se pueden inferir a través de la relación de Wald [31] o regresión de mínimos cuadrados en dos etapas [30, 32]. El índice de Wald se calcula como el coeficiente de regresión instrumento-resultado dividido por el coeficiente instrumento-exposición. En mínimos cuadrados de dos etapas, aún realizamos una regresión de instrumento a exposición, pero luego regresamos el resultado a los valores de exposición previstos en lugar de observados. El coeficiente resultante es la estimación del efecto causal. Con un solo instrumento, los mínimos cuadrados de dos etapas producen resultados idénticos a la relación de Wald, pero tienen la ventaja de ser compatibles con múltiples instrumentos.

Métodos de MR desarrollados recientemente, como la puntuación de perfil robusta ajustada [33]MR-Egger [34]y el estimador modal [35] aproveche múltiples instrumentos para relajar algunos de estos supuestos sin comprometer la validez de los resultados.

DeepMR puede funcionar con cualquier método de MR que tome como entradas los tamaños del efecto y los errores estándar de múltiples instrumentos y puede producir estimaciones del tamaño del efecto e intervalos de confianza para esas estimaciones. En este trabajo, estimamos los efectos causales usando 1) una línea de base simple donde tomamos el promedio de las razones de Wald para cada instrumento y 2) una variante robusta de MR-Egger con el objetivo de ser robusto para instrumentos inválidos. MR-Egger busca robustez ante violaciones de la restricción de exclusión, también conocida como pleiotropía horizontal en genética estadística [36]. MR-Egger se basa en una analogía entre MR con múltiples instrumentos y metanálisis. Trata cada instrumento como un «estudio» que permite que las violaciones de la restricción de exclusión (supuesto 3) se consideren una forma de sesgo de estudio pequeño. Siempre que la fuerza de la relación instrumento-exposición sea independiente del efecto directo del instrumento sobre el resultado, MR-Egger brinda estimaciones precisas de los efectos causales en presencia de instrumentos que violan la restricción de exclusión.

Métodos

Descripción general del algoritmo

DeepMR estima los efectos causales entre las variables predichas por un modelo multitarea. Se necesita un modelo entrenado y calibrado (regresión o clasificación) que genera medias predictivas y errores estándar y un conjunto de secuencias codificadas one-hot como entrada. Genera efectos causales locales específicos de la secuencia y efectos causales globales específicos de la exposición/resultado. Esto lo logra (ver Fig. 1 para una representación visual) a través de los siguientes pasos para cada par exposición/resultado:

  1. Secuencias de muestras aleatorias para predecir la exposición y los valores de resultado para las «secuencias de referencia».
  2. Realizar saturación in-silico mutagénesis para cada secuencia de referencia para generar (longitud de secuencia × tamaño del alfabeto – 1) secuencias mutadas por secuencia de referencia.
  3. Para cada conjunto de pares de secuencias mutantes y de referencia, genere medias predictivas y errores estándar para las características de exposición y resultado.
  4. Generar (longitud de la secuencia × tamaño del alfabeto − 1) tamaños de efecto restando la media predictiva de cada secuencia de referencia de la media predictiva de las secuencias mutadas correspondientes. Además, calcule los errores estándar de estas diferencias.
  5. Filtrar instrumentos por tamaño de efecto basado en un z-umbral de puntuación (Supuesto 2) para incluir solo aquellos que están fuertemente asociados con la exposición.
  6. Calcule un efecto causal por exposición y región por secuencia ejecutando MR en los tamaños de efecto restantes y sus errores estándar.
  7. Calcule los efectos causales generales por exposición mediante un metanálisis de efectos aleatorios en regiones de secuencia (loci).

Tamaño del efecto de exposición y resultado y estimación del error estándar.

El paso 4 requiere estimaciones de efectos variantes para cada mutación tanto para la exposición X y resultado Y. Dejar FX(Z, θ(i)) y FY(Z, θ(i)) ser el modelo para X y Y respectivamente con secuencia de entrada Z y parámetros θ(i) representando a la ith componente del conjunto profundo. Apelando a la interpretación de un conjunto profundo como aproximación a una distribución predictiva posterior [37]la expectativa posterior de X es . Calculando esta estimación de Monte Carlo (MC) tanto para la secuencia mutante metro y referencia r podemos obtener una estimación no sesgada del efecto variante . Procedemos de manera análoga para el resultado. Y.

Una estimación ingenua de los errores estándar (se) usaría con las varianzas estimadas por MC. Sin embargo, esto daría un se inflado ya que ignora la dependencia estadística resultante de θ. Por lo tanto, en su lugar utilizamos

Nuevamente procedemos de manera análoga para el resultado Y.

Estimación del efecto causal por región por exposición y por exposición, por secuencia.

Para la estimación del efecto causal por región por exposición y por secuencia, tratamos el subconjunto de pares y sus valores se acompañantes que pasaron el filtro del paso 5 (es decir, la mutación está asociada con X) como entrada al método MR elegido. A partir de esto, MR nos proporciona una estimación del efecto causal y un se asociado por región de secuencia.

Para estimar un efecto causal general por exposición, aplicamos un metanálisis de efectos aleatorios a los efectos causales de la región por secuencia y sus valores de se. Brevemente, un metanálisis de efectos aleatorios asume que el verdadero efecto para cada estudio (región de secuencia) se extrae de una distribución global subyacente de los tamaños del efecto, que normalmente se supone que es gaussiana cuya media y varianza se estiman. El efecto de región por secuencia se observa con una media igual al efecto real y el ruido gaussiano con varianza determinada por el se de MR. Para realizar el metanálisis de efectos aleatorios, utilizamos el meta Paquete R [38].

Simulación

Nuestra simulación está inspirada en [39] pero adaptado a la prueba DeepMRla capacidad de estimar la fuerza de la relación causal entre la exposición y los TF de resultado cuando se vinculan a simulados L = secuencias de ADN de 100 pb. La afinidad de unión de la exposición TF, Cmiestá determinado principalmente por la probabilidad de que el TF (representado como una matriz de ponderación de posición, PWM) se una en cualquier parte de la secuencia (consulte el texto S1), pagsmi,
(1)

dónde pagsC es la probabilidad vinculante de un factor de confusión opcional TF, y z ∼ Bernoulli(0.5) es un factor de confusión opcional independiente de la secuencia. Por el contrario, la afinidad de unión del resultado TF Co es una función multiplicativa tanto de la fuerza de su propia coincidencia de motivo como de la fuerza de la exposición, es decir

Aquí el tamaño del efecto γ representa la influencia del enlace de la exposición en el enlace del resultado en el espacio de conteo sin procesar. γ No es el verdadero efecto causal porque el verdadero CE se define en el espacio transformado de Anscombe en lugar de recuentos sin procesar. γ se muestrea (una vez por corrida de simulación) de una mezcla de igual proporción de dos normales con medias 10 y 1 (y varianza 0.5), para probar DeepMRś capacidad para diferenciar entre dos grupos de CE, uno mucho más bajo que el otro. Tomamos muestras α de norte(100, 3) (una vez por ejecución de simulación) y corregir η = 20, v = 30 y τ = 25.

El modelo de simulación corresponde a un efecto causal de la exposición TF en el resultado TF: sin exposición TF vinculante, no puede haber resultado vinculante TF. Cuando están presentes, ambos tipos de factores de confusión influyen en la exposición y el resultado se multiplican.

Finalmente, para representar el ruido experimental, los recuentos se distribuyen según la distribución de Poisson con una media igual a los valores de afinidad. No usamos un binomio negativo ya que esperamos que el proceso de generación de secuencias aleatorias induzca naturalmente una sobredispersión. Finalmente, Anscombe transforma los recuentos sin procesar [39].

Las secuencias de 100 longitudes se muestrean uniformemente al azar. Para cada TF, con un 50% de probabilidad, insertamos una subsecuencia muestreada de su PWM en una posición aleatoria. Para asignar una probabilidad vinculante, convolucionamos el PWM del TF sobre la secuencia y aplicamos la función soft-or (ver Texto S1).

Consideramos cuatro escenarios diferentes: 1) sin confusión no observada, 2) confusión no observada basada en secuencias, 3) confusión no observada no basada en secuencias y 4) ambos tipos de confusión en tándem. La confusión no observada dependiente de la secuencia agrega un motivo TF adicional (y correspondiente) que influye en la fuerza de unión de los TF tanto de exposición como de resultado.

Entrenamos conjuntos de modelos de redes neuronales convolucionales (CNN) en los datos producidos en cada escenario y los usamos, combinados con conjuntos de prueba retenidos, como entradas para DeepMR.

Cálculo del efecto causal verdadero.

Para evaluar la calidad de nuestro método, necesitamos comparar sus estimaciones con la realidad del terreno. DeepMR estima el efecto de un cambio de unidad en la exposición sobre el resultado mediante el uso de mutaciones puntuales únicas que afectan significativamente la exposición como instrumentos. Nuestra simulación puede proporcionarnos la verdadera afinidad para cualquier secuencia mutada dada, que aprovechamos para calcular los verdaderos efectos causales a nivel de región de secuencia. Para una secuencia dada que contiene el motivo de exposición, el verdadero efecto causal se encuentra retrocediendo el efecto de todas las mutaciones puntuales a bases dentro del motivo de exposición sobre el resultado de los efectos correspondientes sobre la exposición. Esto es similar al método MR de mínimos cuadrados en dos etapas [32] donde se supone que todas las mutaciones dentro del motivo de exposición son instrumentos válidos.

Parámetros de simulación y modelo.

En todas las ejecuciones de simulación, utilizamos PWM que representan motivos para los factores de transcripción GATA (exposición), TAL1 (resultado) y SOX2 (confusor), todos extraídos de la base de datos de motivos de ENCODE. [40] y muestreado usando la biblioteca simdna (https://github.com/kundajelab/simdna).

Para modelar estos datos, entrenamos una red neuronal convolucional de 3 capas con 15 filtros por capa convolucional y un ancho de filtro de 7 para un máximo de 100 épocas con parada temprana. Las tres capas convolucionales fueron seguidas por 2 capas ocultas de ancho 30. Los modelos se entrenaron usando Adam con una tasa de aprendizaje de 10−3 y, de lo contrario, parámetros estándar combinados con una pérdida de MSE para predecir los recuentos transformados por Anscombe para la exposición y el resultado de forma conjunta.

El código para todos los experimentos se puede encontrar en https://github.com/an1lam/deepmr.

Discusión

DeepMR estima la magnitud de las relaciones causales entre los resultados de los modelos de DL genómicos multitarea para formular hipótesis sobre modelos específicos de regulación génica. DeepMR puede recuperar CE en presencia de confusión no observada en la simulación y valida las supuestas e identifica nuevas relaciones putativas entre cuatro TF importantes involucrados en la reprogramación. Tiempo DeepMR se muestra prometedor, tiene varias limitaciones conocidas.

Requerimientos de recursos

Ya que DeepMR se basa en en silico la mutagénesis en cada submodelo en Deep Ensemble, generar los datos para estimar los CE globales es computacionalmente intensivo, y toma aproximadamente un día para ejecutarse para el conjunto de retención de BPNet en nuestros experimentos. Se podrían incorporar aceleraciones como las de [41] o aproveche las herramientas de atribución como los mapas de prominencia, DeepLIFT [23] o DeepSHAP [24] que puede aproximarse eficientemente en silico mutagénesis.

Calibración del modelo

MR Egger requiere un tamaño del efecto correctamente calibrado y estimaciones del error estándar para cada instrumento. Nuestro enfoque basado en conjuntos para la estimación de la incertidumbre tiende a producir estimaciones algo demasiado confiadas, medidas por las métricas propuestas por [29]. Aplicamos y recomendamos la regresión isotónica [42] para remediar esto.

Violación de los supuestos de MR

Para que MR arroje estimaciones de efectos causales imparciales, el proceso de generación de datos subyacente y el proxy de nuestro modelo deben cumplir los tres supuestos de MR y debe haber una relación al menos aproximadamente lineal entre la exposición y el resultado. En el entorno de la genética estadística, estas suposiciones pueden justificarse en parte por afirmaciones sobre la relación entre el genotipo, que se determina antes del nacimiento, y los posibles factores de confusión y fenotipos, que tienden a manifestarse después del nacimiento, suponiendo que se tenga en cuenta la estructura de la población. No podemos recurrir a estas justificaciones para las relaciones de secuencia a función. En cambio, debemos volver a examinar cada uno de estos supuestos para determinar si se puede esperar que se mantengan. El supuesto 2 se cumple fácilmente porque al filtrar los instrumentos en función de su relación con la exposición (consulte la descripción general del algoritmo), mientras que los supuestos de ausencia de confusión (supuesto 1), restricción de exclusión (supuesto 3) y linealidad tienen el potencial de ser violados.

Según los supuestos clásicos de RM, las estimaciones solo serán imparciales si todos los instrumentos son independientes de los factores de confusión no observados. Los posibles factores de confusión no observados se dividen en dos categorías: dependientes de la secuencia e independientes de la secuencia. La RM clásica (es decir, la ponderación de la varianza inversa) debe controlar la confusión independiente de la secuencia. Los posibles factores de confusión dependientes de la secuencia incluyen otros TF, características de la cromatina o un sesgo de ensayo no corregido, como el sesgo de GC. Dichos factores de confusión violan además la suposición de restricción de exclusión al proporcionar una vía causal desde el instrumento (mutación) hasta el resultado no mediado por la exposición TF. Sin embargo, nuestro uso de MR Egger proporciona cierta solidez adicional a tales violaciones siempre que se mantenga la suposición de InSIDE. De hecho, nuestros experimentos de simulación (Simulación) mostró una robustez notable a los efectos de ambos tipos de confusión.

MR estima correctamente los efectos causales cuando todas las relaciones (instrumento a exposición y exposición a resultado) son lineales, lo que puede no ser el caso. Por ejemplo, dada una fuerte cooperatividad de unión de TF, eliminar la unión de un TF eliminará por completo la del otro, violando la linealidad. Afortunadamente, solo requerimos la condición más débil de linealidad local. Cada uno de nuestros tamaños de efecto se deriva de una sola mutación, por lo que DeepMR se comporta correctamente siempre que las relaciones permanezcan lineales dentro de un vecindario local. Ir más allá de la suposición de linealidad local es algo que esperamos abordar en trabajos futuros.

En resumen, DeepMR se basa en suposiciones específicas sobre la calidad del modelo y las verdaderas relaciones causales. Lo anterior puede ser se espera que aumente a medida que crecen los conjuntos de datos genómicos. Este último sugiere relajar algunas de estas suposiciones a través de métodos de MR más avanzados o desarrollar herramientas para detectar cuándo se violan las suposiciones.

En el futuro, intentaremos combinar DeepMR con un método de inferencia de redes causales como nuestro reciente modelo bimmer [43] para tener en cuenta explícitamente la influencia de otros TF analizados en cada par. DeepMR también se beneficiaría de las herramientas complementarias para diagnosticar cuándo los datos generados por el modelo se desvían o violan los supuestos de MR.

Fuente del artículo

Deja un comentario