Modelo LDA del compartimiento del cuerpo del hongo
Consideramos un compartimiento del cuerpo de un hongo simplificado que consta de norte axones KC, las terminales axónicas de un DAN y las dendritas de un MBON, Fig 1. En cada momento t = 1, 2, …, el vector codifica las actividades KC y el escalar yt ∈ indica si el DAN está activo (yt = 1) o inactivo (yt = 0). Si el DAN está activo, nos referimos a Xt como un respuesta de olor condicionadamientras que si el DAN está inactivo, nos referimos a Xt como un respuesta de olor neutral. Suponemos que la actividad de DAN es temporalmente escasa, lo que se puede expresar matemáticamente como π1 ≪ 1, donde π1 ≔ 〈yt〉t es la fracción de tiempo que el DAN está activo.
En nuestro modelo, el MBON es un clasificador lineal que predice la actividad de DAN yt (etiqueta de clase) dadas las actividades de KC Xt (vector de características). Dejar ser un vector de peso sináptico cuyo iel componente representa la fuerza de la sinapsis entre el iel KC y el MBON. en cada momento tlas actividades de KC Xt se multiplican por el vector de peso sináptico w para generar la entrada total al MBON, denotada Ct ≔ w · Xt. La salida (tasa de disparo) del MBON está dada por
dónde b representa el ‘sesgo’ del MBON; es decir, el umbral por debajo del cual el MBON no se dispara. Bajo esta interpretación, las sinapsis KC-MBON w y sesgo MBON b definir un hiperplano en el norte-espacio dimensional de las actividades de KC que separa las respuestas de olores condicionados de las respuestas de olores neutros, Figura 2. En este caso, zt > 0 (resp. zt = 0) corresponde a la predicción yt = 0 (resp. yt = 1). En otras palabras, el MBON es un clasificador lineal que está activo cuando predice que no hay un estímulo incondicionado e inactivo cuando predice que hay un estímulo incondicionado, lo cual es consistente con las observaciones experimentales. [2].
Derivamos reglas de aprendizaje para los pesos sinápticos KC-MBON w (y sesgo b) que resuelven un objetivo LDA y son consistentes con las observaciones experimentales [2, 5]. LDA es un método de clasificación lineal popular que es óptimo bajo la suposición de que las respuestas de olor neutral y las respuestas de olor condicionadas son gaussianas con una matriz de covarianza común, pero funciona bien en la práctica incluso cuando estas suposiciones no se cumplen. [10].
Nuestro punto de partida es el objetivo LDA convexo
(1)
dónde m0 y m1 denotan las medias de las respuestas de olor neutral y las respuestas de olor condicionadas, respectivamente, y Σ denota la covarianza de la respuesta de olor neutral. En la configuración fuera de línea, podemos minimizar L(w) tomando pasos de gradiente con respecto a w:
(2)
dónde η > 0 es el tamaño del paso. Sin embargo, calcular los medios m0, m1 y covarianza Σ requiere que MBON tenga acceso a toda la secuencia de entradas, lo cual es una suposición poco realista.
Para derivar nuestro algoritmo en línea, reemplazamos los promedios m0, m1 y Σ en Eq 2 con estimaciones en línea. Cuando el DAN está inactivo (yt = 0), actualizamos los pesos KC-MBON w de acuerdo con la regla de plasticidad homeostática
(3)
dónde m0,t denota la estimación actual de la respuesta media de olor neutro y ζt denota la estimación actual de la entrada MBON total media Ct condicionado a que el DAN esté inactivo. Aquí, m0,t y (Ct − ζt) (Xt − m0,t) son estimaciones en línea de m0 y Σrespectivamente (ver sección de métodos). Los medios para correr m0,t y ζt se puede representar mediante cantidades biofísicas, como las concentraciones de calcio en los terminales presinápticos y postsinápticos de las sinapsis KC-MBON.
Cuando el DAN está activo, actualizamos los pesos KC-MBON w de acuerdo con la siguiente regla de plasticidad inducida por DAN
(4)
Algoritmo 1 LDA en el compartimiento del cuerpo del hongo
aporte: (X1,y1), … ,(XT,yT)
inicializar: w = (w1… ,wnorte), b = 0, ℓ0 = 1, η > 0
para t = 1, 2, …, T hacer
Ct ← w · Xt
zt ← máx(Ct − b0)
si yt = 0 entonces
w ← w + η(m0,t − (Ct − ζt)(Xt − m0,t))
ℓt ← ℓt−1 + 1
más si yt = 1 entonces
w ← w − ηℓt−1Xt
ℓt ← 1
terminara si
fin para
El algoritmo 1 solo tiene uno hiperparámetro: la tasa de aprendizaje η > 0, que corresponde a la escala de tiempo para el aprendizaje en el compartimento del cuerpo del hongo. Hige et al. [5] mostró que los compartimentos del cuerpo de los hongos tienen distintas escalas de tiempo para el aprendizaje, que se pueden modelar eligiendo diferentes tasas de aprendizaje η > 0.
Experimentos numéricos
A continuación, probamos el Algoritmo 1 en conjuntos de datos sintéticos y reales. Probamos nuestro algoritmo en las entradas cuando nuestra suposición π1 ≪ 1 se mantiene, pero también en las entradas cuando π1 ≈ 0,5. Para evaluar nuestro algoritmo, medimos la precisión de ejecución de las proyecciones zt durante el minuto anterior (100, t) iteraciones, donde el algoritmo es preciso en el tel iterar si zt = 0 y yt = 1 o si zt > 0 y yt = 0.
Conjunto de datos sintéticos.
Comenzamos evaluando el Algoritmo 1 en un conjunto de datos sintéticos generado por una mezcla de 2 distribuciones gaussianas superpuestas, de modo que la precisión óptima sea inferior a 1. Los puntos de datos de las 2 clases se extraen cada uno de una media bidimensional con covarianza común. Simulamos conjuntos de datos de 105 puntos de datos que usan la misma media y covarianza en ambas clases pero varían la frecuencia de las muestras de clase 1 encontradas. Consideramos los casos π1 = 0,1, 0,2, 0,3, 0,4, 0,5. En En la figura 3 (izquierda) trazamos el error y la precisión de nuestro modelo para variar π1. Sorprendentemente, mientras que la derivación del Algoritmo 1 se basó en el hecho de que π1 ≪ 1, el algoritmo sigue funcionando bien incluso cuando π1 = 0,5.
Fig. 3. Desempeño del Algoritmo 1.
Precisión del Algoritmo 1 en los conjuntos de datos sintéticos (izquierda) y el conjunto de datos KC (derecha). Cada línea indica la precisión media de 10 ejecuciones. Cada región sombreada indica el área entre la precisión mínima y máxima en 10 ejecuciones.
https://doi.org/10.1371/journal.pcbi.1010864.g003
Conjunto de datos de actividades de KC.
MBON de la competencia.
Usando el conjunto de datos de actividades de KC, modelamos 2 MBON con valencias competitivas ejecutando 2 instancias del Algoritmo 1 en paralelo con diferentes asignaciones de clase para los olores. Consideramos el caso de que el olor 1 es aversivo, el olor 7 es atractivo y los demás olores son neutros. Para MBON 1 (resp. MBON 2), asumimos que el olor 1 (resp. olor 7) denota el olor de clase 1 y los olores 2–7 (resp. olores 1–6) denotan los olores de clase 0, por lo que MBON 1 ( resp. MBON 2) la actividad promueve el comportamiento de acercamiento (resp. evitación). Dejar zi,t denota la salida de MBON i ∈ . En cada iteración tsi se presenta el olor 1 (resp. olor 7, olores 2–6), entonces el modelo es exacto si z1,t > 0 y z2,t = 0 (resp. z1,t = 0 y z2,t > 0, respectivamente z1,t > 0 y z2,t > 0), e inexacta en caso contrario. Luego repetimos el experimento dos veces más, pero con el olor 2 (respectivamente el olor 3) etiquetado como aversivo y el olor 6 (respectivamente el olor 5) como atractivo. En En la figura 4, representamos gráficamente el rendimiento de los MBON de la competencia.
Figura 4. Rendimiento de los MBON de la competencia.
Precisión de 2 ejecuciones paralelas del Algoritmo 1 en el conjunto de datos KC para clasificar los olores como aversivos, atractivos o neutrales. Cada línea indica la precisión media de 10 ejecuciones. Cada región sombreada indica el área entre la precisión mínima y máxima en 10 ejecuciones.
https://doi.org/10.1371/journal.pcbi.1010864.g004