Home

Menu

Loading wiki pages...

View
Wiki Version:
<h2><strong>Introducción</strong></h2> <hr> <p>El problema que representa la organización y expresión en los sistemas complejos puede ser simplificada al considerar las redes génicas como elementos compuestos por subconjuntos de partes o módulos. La biología sintética, utiliza este enfoque, con el fin de construir sistemas predecibles y robustos con nuevas funciones celulares. En esta disciplina, existe una estructura jerárquica para construir los sistemas de regulación transcripcional, se encuentran las Partes, que son combinadas para formar los Dispositivos, los cuales pueden ser combinados para constituir Sistemas transcripcionales. Existen variadas técnicas para el ensamblaje de estos componentes, las cuales tienen como objetivo una construcción ordenada, siguiendo una estructura básica correspondiente a Promotor, Sitio de Unión al Ribosoma (RBS), Región Codificante y Terminador. </p> <p>Dado que los organismos poseen redes génicas que son robustas para responder a diversas señales, la biología sintética busca estudiar estas características para crear sistemas programables, utilizando microorganismos como las bacterias.</p> <p>Las propiedades ópticas de las sustancias son la base de los biosensores ópticos, donde algunos se basan en el uso de proteínas fluorescentes como reporteros, utilizando la intensidad y la dinámica de cambio de esta señal para su medición. </p> <p>Si bien, estos presentan ventajas frente a sensores de otra naturaleza, su utilización debe ir acompañada de un análisis adecuado para obtener mayor información respecto al analito bajo evaluación. En el caso de proteínas fluorescentes acopladas a promotores existen una serie de factores que pueden influenciar su transcripción y traducción (Elowitz, 2002). Esto se debe a que, al introducir un sistema o circuito génico en una célula, este depende netamente de los componentes celulares que la última posea para ser transcrito y traducido, los cuales corresponden a RNA polimerasas, ribosomas, tRNAs, entre otros, y no sólo su promotor (Elowitz, 2002; Rudge y Federici, 2016). Cambios en cada uno de estos parámetros llevará a diferencias en la lectura de la fluorescencia que no corresponden a cambios en la expresión del gen. Parte de estos factores, en conjunto con el contexto de medición de expresión y el sistema de medición, introducen una variación extrínseca a la forma en que el promotor dirige la transcripción de un gen. Además, la variación intrínseca de un promotor corresponde a la transcripción dirigida por este, de forma específica en una serie de contextos o condiciones diferentes (Rudge y Federici, 2016). </p> <p>@<a href="gn356" rel="nofollow">osf</a></p> <h2>--------</h2> <p><strong>Estudio de la dinámica de redes génicas</strong></p> <hr> <p>En Rudge y Federici, 2016, se desarrolló un método, para abordar el problema de separar las variaciones específicas y globales en la transcripción, obteniendo una característica intrínseca de los promotores, que corresponde a una medición cuantitativa de la transcripción específica de cada promotor y consistente en diferentes contextos. Este método utilizó combinaciones de dos reporteros fusionados a promotores cosntitutivos, utilizando uno como referencia, y se encontró que la tasa de producción de los reporteros se correlacionaba fuertemente, dado que se encontraban dentro del mismo contexto celular. Inicialmente se consideró una característica (Alfa), que corresponde a la pendiente de la variación de la intensidad de fluorescencia respecto a la densidad óptica, como característica intrínseca de los promotores, pero presentaba gran variabilidad en diferentes contextos. Dado que los reporteros estaban en el mismo contexto celular e influenciados por los mismos factores, se considero determinar la razón o ratio (Rho) de las características Alfa de los reporteros. Esta redujo la variación extrínseca a menos de un 4%, obteniendo información específica respecto al comportamiento de los promotores estudiados. Esta razón se consideró como intrínseca a los promotores.</p> <p>@<a href="45nt9" rel="nofollow">osf</a></p> <hr> <p>Dado que se utilizaron tan solo dos reporteros fluorescentes, siendo este método de análisis útil, en el presente trabajo se evaluó la utilidad de introducir un reportero más, realizando el análisis ratiométrico de estos. Considerando que las células poseen redes génicas de regulación robustas, que se comportarán de forma similar cada vez que las células son expuestas a la misma muestra, al construir redes con más reporteros, se pensó que podrían entregar más información para detectar diferentes señales en el entorno donde se encuentren estas células.</p> <h2>---------</h2> <p><strong>Teoría de información, entropías de información, entropías condicionales</strong></p> <hr> <p>La Teoría de información estudia la cuantificación, almacenaje y comunicación de la información. Fue propuesta por Claude E. Shannon en 1948 para encontrar límites dentro del procesamiento de señales transmitidas. Dentro de los conceptos principales que se tratan en esta teoría se encuentran la Entropía, Entropía conjunta, Entropía condicional e Información mutua.</p> <p><strong>Entropía de información (H(X)):</strong> La entropía de información cuantifica la cantidad de información que existe en un proceso o variable al azar, mediante las probabilidades de los eventos que pueden ocurrir. Si la probabilidad de uno de estos eventos es muy baja, es mayor la cantidad de información que aporta, dado que es poco común. De esta forma entre más al azar o incierto son los eventos dentro del proceso, más información contiene, siendo la entropía una medición de la incertidumbre contenida en el proceso. Esto se traduce matemáticamente como: <strong>𝐻(𝑋)=−Σ𝑝𝑖log2(𝑝𝑖)</strong>, siendo la unidad utilizada los bits, dados por el logaritmo utilizado. Esta entropía se menciona como entropía independiente en este trabajo, dado que corresponde a la entropía de cada medición por separado.</p> <p><strong>Entropía conjunta (H(X,Y)):</strong> Al contar con más de una variable al azar, como X e Y, al estar dentro de un mismo contexto, pueden estar relacionadas o no, compartiendo un valor de entropía mayor a la entropía de cada una por separado.</p> <p><strong>Entropía condicional (H(X|Y)):</strong> Si se tiene más de una variable y tienen dependencia entre ellas, se puede determinar la cantidad de entropía que posee una de las variables al conocer una o más variables del set, lo que reduce la incertidumbre de la primera. La entropía condicional de una variable al conocer otra, por ejemplo, la entropía condicional de X al conocer Y no necesariamente tendrá el mismo valor de la entropía condicional de Y al conocer X, puesto que a cantidad de información contenida en cada una por separado puede ser distinta y explicar de distinta forma la información contenida en la otra variable.</p> <p><strong>Información mutua (I(X;Y)):</strong> Al poder explicar una variable al conocer otra, estas compartirán una cantidad de información o dependencia entre ellas, la cual se define como información mutua .</p> <p>Los conceptos mencionados anteriormente se definen matemáticamente como sigue, siendo la primera ecuación la entropía de información, luego la entropía condicional y finalmente la información mutua. En el caso de la entropía conjunta, esta corresponde a la suma de las entropías independientes de las variables. @<a href="sz8h7" rel="nofollow">osf</a></p> <p>En los siguientes diagramas se ejemplifica cómo son la entropía de información, las entropías condicionales e información mutua cuando se tiene 2 o 3 variables distintas que pueden estar relacionadas entre si, y además, cómo se representan al tener las mediciones de OD, CFP, RFP e YFP.</p> <p>@<a href="byxwh" rel="nofollow">osf</a> @<a href="hp74k" rel="nofollow">osf</a></p> <hr> <p>Además del método ratiometrico, se consideró evaluar el uso de la Entropía de Información como método de análisis para el sistema de tres reporteros, y si este es útil para obtener una mayor cantidad de información, y si esta es robusta para el análisis de señales de interés.</p>
OSF does not support the use of Internet Explorer. For optimal performance, please switch to another browser.
Accept
This website relies on cookies to help provide a better user experience. By clicking Accept or continuing to use the site, you agree. For more information, see our Privacy Policy and information on cookie use.
Accept
×

Start managing your projects on the OSF today.

Free and easy to use, the Open Science Framework supports the entire research lifecycle: planning, execution, reporting, archiving, and discovery.