Elaborado por Materia para OpenMind Recomendado por Materia
32
Inicio ¿Paraíso perdido? ¿Paraíso recuperado? Nanotecnología, el hombre y la máquina
Artículo del libro Hay futuro: visiones para un mundo mejor

¿Paraíso perdido? ¿Paraíso recuperado? Nanotecnología, el hombre y la máquina

Biología | Futuro | Nanotecnología | Salud
Tiempo estimado de lectura Tiempo 32 de lectura
La historia de los últimos quinientos años es una crónica tanto de la humanidad que utiliza las máquinas como de la humanidad que es transformada por las máquinas. Los británicos llevaron el ferrocarril a la India con el fin de controla a una colonia distante mediante el movimiento eficaz de mercancías y tropas. Pero esto también espoleó la supresión de las barreras de casta, ya que todos los viajeros tenían que compartir espacios pequeños. Un área de investigación fronteriza en nuevas máquinas está en el control y la manipulación a escala atómica y molecular, escala de la nanotecnolofía de la que surgen las propiedades físicas y biológicas. Esto dará lugar a la desaparición de las actuales distinciones entre artificial y vivo. El hombre y la máquina se fusionarán, planteando algunas de las cuestiones evolutivas y éticas más difíciles de nuestra historia.

“¿Puede concebirse de Dios, aunque en su mano esté repetir su Obra, que así quiera aniquilarnos? Daría lugar al triunfo de su adversario.”
John Milton, Paraíso perdido, Libro 9

Eva ha mordido la manzana. Adán debe ahora decidir si unirse a ella en pecado o vivir sin ella. No se puede imaginar la vida sin Eva. ¿Está Dios marcándose un farol o podría realmente suponer el triunfo de Satanás?

La nanotecnología ofrece al ser humano la capacidad de manipular, controlar y procesar en dimensiones atómicas y moleculares. Esta capacidad se ha desarrollado rápidamente en las últimas décadas, y nuestro conocimiento e ingeniería a esta escala dimensional continúan ganando terreno. El hombre puede ahora modificar las propiedades para aplicarlas en el entorno físico con notable eficacia. Valgan como ejemplos los materiales con pesos reducidos dotados de una mayor potencia, utilizados en vehículos o turbinas; la conversión energética mejorada o la mayor eficiencia de almacenamiento, empleada en las baterías y en los dispositivos fotovoltaicos; la mayor seguridad contra las bacterias a través de un filtrado del agua optimizado para metales pesados; el control mejorado de la contaminación mediante la catálisis para los efluentes de combustión; la capacidad de comunicación que altera el sentido del tiempo y el espacio mediante dispositivos móviles, y el entorno web e informático que ha hecho de la información algo más abierto y omnipresente. No hace mucho, abundaban las máquinas de escribir, a menudo manejadas por mecanógrafos; la información para satisfacer la mayor parte de las necesidades era accesible a través del teléfono, el correo postal o una visita personal a la oficina, y el comercio incluía transacciones con copias de carbón. La apertura de la información, la comunicación sencilla a través de los dispositivos móviles, el comercio de todo tipo efectuado electrónicamente son, todos ellos, cambios físicos que se han producido en un corto periodo de tiempo de aproximadamente un ciclo reproductivo humano y que han cambiado la forma en la que el ser humano desarrolla su vida pública y privada. El mundo lleva un ritmo cada vez más frenético, no muy distinto al de aquellos que manejan el dinero en Wall Street. Los vínculos de dependencia y posesión que la persona establece con internet y con los aparatos móviles incluso dan a entender que el hombre y la máquina pueden estar más unidos que los hombres entre sí. Las máquinas están modificando al ser humano.

La nanotecnología ofrece al ser humano la capacidad de manipular, controlar y procesar en dimensiones atómicas y moleculares. Esta capacidad se ha desarrollado rápidamente en las últimas décadas y nuestro conocimiento e ingeniería a esta escala dimensional continúan ganando terreno.

Dicho cambio mediante creaciones materiales basadas en las piezas de la tabla periódica y su uso en el entorno físico no es sino el comienzo. En el mundo vivo basado en el carbono, vivimos más porque los diagnósticos son más precisos: instrumentos como la imagen por resonancia magnética en sus diversas formas, la resonancia magnética nuclear, la tomografía por emisión de positrones o la tomografía axial computerizada permiten explorar espacios físicamente inalcanzables; versiones de menor tamaño logran llegar a regiones precisas; implantes cocleares en miniatura y articulaciones artificiales fabricadas con materiales resistentes ayudan a la vida diaria de nuestros mayores, y la medicina se muestra ahora más específica sobre la etiología de la enfermedad ya que contamos con métodos de diagnóstico por imagen muy precisos mediante señales de todo tipo: mecánicas, eléctricas, magnéticas y ópticas, en todo el rango del espectro electromagnético. Estos ojos multidimensionales tienen la capacidad de ver dentro del cerebro y las secciones transversales del cuerpo humano, observar tumores e incluso moléculas y simples enlaces atómicos. En cierta forma, se ha creado una célula sintética. Y la mejor comprensión de las interacciones biológicas, incluidos los fundamentos genéticos, ha potenciado estos avances.

La vida y su desarrollo son mucho más complejos y apenas los entendemos. Tanto las interacciones digitales, como en el código genético, y las interacciones analógicas, como en la activación iónica en interacciones sinápticas, sustentan el comportamiento fundamental de las redes de interacciones que hacen que la vida en presencia del flujo de energía resulte estable. Las respuestas a las grandes preguntas sobre la naturaleza de la consciencia, la base de diversas enfermedades mentales o la forma de tomar decisiones van estando a nuestro alcance gracias a que instrumentos como la imagen por resonancia magnética, los implantes neuronales y las herramientas eléctricas, magnéticas y ópticas no invasivas nos ayudan a explorar el cerebro. Aprendiendo del mundo vivo, los robots nadan como peces, saltan como insectos, vuelan de forma autónoma, conducen vehículos como las personas, casi alcanzan la estabilidad de los mamíferos a la hora de caminar y correr en terrenos complicados, reconocen órdenes simples mediante gestos o la voz, y realizan mejor que nosotros tareas repetitivas. Las máquinas de información están siendo capaces de aprender las normas o algoritmos de respuesta, acción, conducta y las leyes naturales mediante el reconocimiento de patrones en los datos no supervisados. Los implantes neuronales permiten al cerebro controlar directamente acciones físicas con prótesis. Estos cambios, en seres vivos y en máquinas que emulan a los seres vivos, han aprovechado la capacidad de elucidar y mediar las interacciones a escala atómica y molecular mediante las prácticas biológicas y nanotecnológicas. Las obras internas y externas del ser humano están siendo entendidas conjuntamente por el hombre y la máquina.

Este patrón de rápido cambio sigue siendo infinito. Esta cooperación hombre-máquina se puede ampliar, sin lugar a dudas, si el ser humano aprovecha las máquinas para paliar mejor las enfermedades o las deficiencias sanitarias, o simplemente en tareas básicas repetitivas. A este ritmo de aprendizaje y con las máquinas aprendiendo por sí mismas, no está lejos el día, posiblemente a mediados de siglo, en el que la distinción entre hombre y máquina pueda incluso considerarse una disquisición filosófica. Las máquinas, a todos los efectos prácticos, cumplirían todos los requisitos del test de conducta inteligente de Turing en el que un observador no podría distinguir de forma fiable mediante una conversación entre una máquina y un ser humano ocultos a sus ojos. La máquina sería capaz de crear inteligencia, sacar conclusiones lógicas deterministas, formular preguntas, estudiar asimismo conexiones, cortas y largas, y analizar elaborando un razonamiento con confianza del tipo no determinista: emocional, contextual y para las sorpresas. Esta máquina tendría un comportamiento similar al de un ser humano. Si lo consiguiese, esta forma de máquina sin carbono también sería capaz de convertirse en una tercera forma, un humano de silicio, en que la “persona” de la vida finita, de la forma de carbono, sería imbuida en la forma sin carbono para continuar con la “vida”. El hombre y la máquina se pueden fusionar. O, tal y como afirma la mayor parte de los defensores de la comunidad de inteligencia artificial, el hombre es una máquina, así que ahora ambas máquinas son dos formas que se fusionan.

Este es el “Jardín del Edén” de mediados del siglo XXI. ¿Es esto un cataclismo? ¿El paraíso perdido? ¿El paraíso recuperado? ¿Debería Adán unirse a Eva en este pecado o vivir sin ella? ¿Estará Adán pensando que Dios puede ir de farol porque Él nunca le mataría ni querría que Satanás triunfase sobre lo racional? Este es el dilema del futuro según vaya avanzando la nanotecnología y la biología. Al igual que Adán, tendremos que encontrar nuestro camino. ¿Encontramos un camino que no sea ni blanco ni negro, sino gris? ¿Estará el gris, sopesando probabilidades, demasiado lejos de las prácticas de la evolución wallace-darwiniana mediante sucesos probabilísticos de mutaciones y la supervivencia de los más aptos?

Esta trayectoria plantea numerosas preguntas y desafíos para el mundo en el que vivimos y para nuestro lugar en el universo. Va más allá de los meros cambios científicos, económicos, sociales o culturales, y las cuestiones que estos plantean. Afecta a la humanidad y a la creencia en su propia singularidad, en su esencia más pura. La observación de Francis Bacon: “La naturaleza, para poder controlarla, debe ser obedecida” es especialmente cierta para este derrotero que la tecnología puede tomar. No podemos destruir lo que no podemos crear.

Incluso predecir el pasado es difícil. De hecho, están sujetas a constante revisión preguntas tales como cuándo los humanos adquieren el lenguaje por primera vez o cómo se producen las diferentes migraciones desde África, o incluso cuándo acontecen –y si realmente lo hacen– los sucesos descritos en los textos antiguos (el Rigveda o el Libro de los Muertos egipcio, no digamos los relatos más antiguos del himno del templo de Kesh o la epopeya de Gilgamesh). Predecir el futuro resulta más difícil con la incertidumbre. La naturaleza sigue un camino probabilístico no determinista bajo influencias aleatorias y deterministas. Dicho esto, exploremos las posibilidades del futuro en función de los avances en ciencia e ingeniería a nanoescala en relación con la física, las ciencias de la vida y, a través de ellas, con la humanidad y el mundo. Muchos de los avances en el campo de la nanotecnología se han producido en el mundo físico, el que creamos mediante la diversidad de materiales a nuestra disposición, naturales y artificiales. Sin embargo, están comenzando a producirse numerosos cambios en el mundo animal y vegetal y se acerca el momento en el que ambos se conectarán progresivamente.

Los científicos y los ingenieros parecen estar en lo mejor de su actividad creativa en la franja aproximada de los veinticinco a los treinta y nueve años, quizás porque durante esos años se mantienen al día sobre las maravillas tecnológicas de su profesión y aún no han acumulado la carga de otras responsabilidades de su vida profesional y personal.

¿Qué llegará a ver un niño nacido hoy en día cuando llegue a ser profesional en activo y cuáles podrían ser las preguntas a las que se tendría que enfrentar? Denominaré a esto tiempo del ciclo de la creatividad y es esta escala de tiempo la que pretendo explorar.

Uno de los éxitos más impresionantes en la ingeniería física con la reducción de las dimensiones es la variedad de herramientas compactas que utilizamos en nuestra vida diaria: teléfonos inteligentes que ofrecen conectividad para una comunicación casi instantánea y respuestas rápidas a consultas de naturaleza estática –encontrar direcciones, lugares para actividades, así como la facilidad de la planificación comercial o física para disfrutar los placeres de la vida–, realizar transacciones financieras o de compraventa, organizar viajes o escuchar nuestra música favorita. La miniaturización también ha beneficiado a los humanos en el ámbito de la asistencia médica. Pasamos menos tiempo en hospitales al disponer de procedimientos menos invasivos, por ejemplo, todos los procedimientos endoscópicos. Los pequeños instrumentos sensibles, la rápida transferencia de datos, los robots y los teléfonos móviles representan formas inteligentes que posibilitan el diagnóstico y los tratamientos, incluso los procedimientos físicos, de forma remota. Esto tiene relevancia tanto para las comunidades prósperas como para las más desfavorecidas. La miniaturización reduce los costes y permite que un experto esté más alejado y diversamente conectado con la comunidad. Los kits de diagnóstico económicos, incluso de papel (Vella et al. 2012), junto con la transmisión de los resultados del test a los especialistas a través de teléfonos móviles con cámara, permiten llegar a las comunidades más remotas puesto que los teléfonos móviles llegan a todas la comunidades. No hay más que centrarse en los kits de diagnóstico de coste ínfimo con sensibilidades a nanoescala que ofrecen diversos test comunes simultáneamente y su disponibilidad en puestos rurales. Dichos procedimientos son especialmente útiles para las afecciones comunes: malaria, cólera, malnutrición, etc. Los instrumentos hospitalarios avanzados –NMR, MRI, CT y escáneres PET, microscopios confocales, incluso los rayos X– que resultan útiles frente a enfermedades más problemáticas como el cáncer, padecimientos cerebrales, articulares, tuberculosis y otros, también están sujetos a la miniaturización (Sun et al. 2010; Spector 2010). Sin embargo, dado que estos últimos requieren conocimientos de manejo avanzados, pueden estar disponibles en hospitales de distrito.

Los más pudientes también sacan partido de estas tendencias; después de todo, el coste de la asistencia sanitaria supone un importante gasto económico para la sociedad. Los auto-tests, el menor uso de una costosa infraestructura y los conocimientos personales son vías constructivas para la reducción de dichos costes sanitarios. Existen diversas tareas que las máquinas desempeñan mejor. Las articulaciones artificiales requieren una preparación cuidadosa de la superficie así como alineaciones y se realizan mejor robóticamente. Las máquinas se mueven mejor en lugares difíciles de alcanzar y manejan mejor las pequeñas estructuras, verbigracia, la próstata, entre otros, gracias a máquinas como la Da Vinci1. Estos robots proliferarán. Las máquinas, como la Watson de IBM responden a una gran cantidad de preguntas gracias a la información acumulada que les ha sido integrada para analizar sintácticamente el lenguaje natural. Ya en la actualidad, dichas máquinas deberían ser capaces de encargarse de gran parte de la sistematización que lleva a cabo un médico. Las máquinas deberían ser capaces de analizar rápidamente, inferir utilizando sistemas de razonamiento para establecer la información, el genotipo, el fenotipo, la microbiómica y la epigenética necesarios, aprehenderlos, y actuar sobre ellos empleando el razonamiento probabilístico tal y como hace el especialista. Con las capacidades de aprendizaje que adquirirán, las máquinas se convertirán, en un primer momento, en ayudantes expertos de los médicos para convertirse, más tarde, en sustitutos para las tareas más habituales y, finalmente, en especialistas. Estos son ejemplos en los que la máquina está adquiriendo cada vez más capacidades según van apareciendo elementos de menor tamaño que ofrecen la posibilidad de adquirir, asimilar y formar dicho conjunto de datos clasificados así como los patrones relevantes que integran.

Otra consecuencia, especialmente ventajosa para la infraestructura que facilita y socializa nuestra vida, es la gran cantidad de sensores y demás herramientas que recopilan datos secuencialmente: sensores que obtienen información sobre puentes o sobre la densidad y los patrones del tráfico, o sobre la actividad geológica y el medio ambiente, tal y como vemos en la predicción de tsunamis; o los historiales médicos con fecha y hora; sensores que buscan patrones y desencadenan la actividad como una respuesta de seguridad.

La pequeñez en sí misma sigue teniendo un largo camino intelectual por recorrer. Compaginaremos las leyes naturales para trabajar de forma más eficaz en el mundo físico. Explotaremos los fenómenos físicos fundamentales, como que un electrón tiene una única carga, o que el flujo magnético tiene un flujo cuántico correspondiente, para crear formas de digitalización mucho más efectivas, en las que la información se codifique exactamente en la fuente de un dato de manera más eficaz. Es más, deberíamos ser capaces de explotar el caos y las fluctuaciones ajustándonos a las no linealidades para conseguir nuevos dispositivos que permitan una sensibilidad mucho mayor de la actualmente posible para usos tales como los sensores mecánicos activados por el sonido o las bandas de transmisión para una transferencia de datos más eficaz. Aprenderemos a transmitir la energía a través del espectro electromagnético de manera eficiente e inalámbrica utilizando no linealidades, al igual que hacemos con cables metálicos: bolas de energía transmitidas de manera similar a la forma en la que los tsunamis pueden desplazarse largas distancias sin perder su longitud de onda. Podemos incluso practicar formas rudimentarias de teletransporte y, por supuesto, asegurar formas de comunicación utilizando los principios de la mecánica cuántica. Aprenderemos a hacer que las cosas sean cada vez más pequeñas en los instrumentos médicos, permitiendo una cirugía mínimamente invasiva en la que el médico será capaz de ver lo que está haciendo mientras el órgano, por ejemplo, el corazón, sigue funcionando durante todo el proceso.

Una consecuencia evidente de esta gran acumulación de datos a través de estos medios es la creciente pérdida de privacidad, la capacidad de las empresas privadas de entrometerse y de los gobiernos de obtener datos legal e ilegalmente, simplemente porque están ahí o de forma premeditada, debido a que la mayor parte de los individuos no sabe cómo protegerse. Esto tiene un efecto bipolar. Se pueden seguir las transacciones financieras e identificar las funciones de las corporaciones y los individuos en los eventos financieros; se puede asimismo identificar el núcleo de comunicaciones, como en una red terrorista. Pero, de igual modo, se pueden falsear las transacciones y silenciar las protestas democráticas legítimas.

La consecuencia común que subyace a estas actividades es la generación de una ingente cantidad de datos. Incluso en una década, esta aglomeración de datos en distintas y numerosas recopilaciones será de yottabytes o más. Un yottabyte equivale a 10 seguido de veinticuatro ceros de bytes; siendo un byte 8 dígitos binarios o bits. Un yottabyte es igual a 80 dígitos binarios (un yobibyte) en la representación numérica que utilizan las máquinas. Valga como referencia para los datos que las memorias USB actuales (2012) contienen como mucho 32 seguido por nueve ceros en la representación digital. Los datos, tal y como se mencionan aquí, tienen información escondida dentro de ellos o incluso a un nivel superior, conocimiento que interpreto como las conexiones representadas en la información. Gran parte de estos datos son superfluos e irrelevantes. La misma temperatura, pongamos, por ejemplo, una temperatura ambiente de 20 °C, se puede escribir como 20 en la forma digital decimal (hasta cierto grado de precisión Celsius), o 10100 en la lógica binaria que utiliza la electrónica digital. Para la representación correcta de los datos, la electrónica digital emplea actualmente motores computacionales con una precisión en bloques de 64 bits, o 132 bits en raras ocasiones. Después de todo, los datos pueden ser enormes, teóricamente infinitos, y necesitan representarse correctamente. Gran parte de esta precisión resulta inútil en el caso de esta temperatura. Por otro lado, no contamos con precisión y datos suficientes de otras formas. Cien mil millones de galaxias con cien mil millones de estrellas en cada galaxia dentro de nuestro universo son una cantidad de estrellas igual a 10 seguido de veintidós ceros. Asumamos que en una fotografía cada estrella representa un único lugar, es decir, un píxel en una fotografía. Ahora, supongamos que queremos almacenar varias informaciones: intensidad de la luz como una función de la longitud de onda en cada uno de estos píxeles. Debemos identificar el objeto, de manera que haya un dato para ello, y digamos que queremos capturar con precisión nanométrica el espectro óptico sobre un rango de longitud de onda razonable, sobre 10 seguido de ocho ceros puntos de datos, porque esta información nos ayuda a identificar algunos de los materiales en la estrella y lo que le sucede a la luz cuando atraviesa el universo antes de alcanzarnos. Acabamos de formar 10 seguido de treinta ceros datos en donde cada estrella es simplemente un píxel y solo se ha capturado un espectro electromagnético limitado. ¡Innumerables datos, y enterrada en ellos está parte de la información relacionada con lo que sucedió en la estrella billones de billones de años atrás para obtener únicamente una instantánea! Supone más de diez millones de yottabytes de datos y no hemos descrito realmente mucho de lo que está sucediendo en el universo en este momento, ni con precisión, puesto que cada estrella es únicamente un píxel. Uno podría abordar este problema de otro modo en nuestro propio entorno. Supongamos que queremos utilizar las técnicas para medir la tensión, mediante deformación, para saber cuándo puede fallar un puente, para evaluar el momento en el que se aceleran las deformaciones que derivan en fallos catastróficos. Recopilamos datos mediante unos 10 000 sensores autónomos sobre el puente, los medimos cada segundo durante un año (un año tiene aproximadamente 32 millones de segundos), medimos la expansión en tres direcciones y algunas otras características tales como la temperatura, etc., en cada uno de los sensores identificables. Todo ello implica 10 000 x 32 000 000 x 3 x 10 = 10 seguido de doce ceros. En un país como los Estados Unidos existe cerca de un puente por cada fracción de milla cuadrada, es decir, aproximadamente 10 millones de puentes, y esto supone 100 millones de billones de datos (10 seguido de veinte ceros). Toda esta recopilación de datos en puentes estáticos asciende a este número tan elevado en un país. Imagine cómo serían los datos cuando 4 cámaras y cada intersección produjesen 10 millones de píxeles de datos por segundo en un país como el Reino Unido, al que le gusta estar ojo avizor, o con la interceptación y el snooping llevados a cabo por empresas y gobiernos.

El desafío en esta propuesta es que mientras los datos son sagrados, tal y como se enseña a todos los científicos e ingenieros, los datos no son ni información ni conocimiento que ponga la información en perspectiva. Los datos están sujetos a errores. Hace una década, descubrimos que la medición de la temperatura del océano tenía un error sistemático en un periodo concreto debido al enfoque de sensores-satélite específicos empleado. ¿Cómo compara uno entonces este dato con otro conjunto de datos obtenidos a través de otro enfoque y la acumulación de dichos datos? Si se mide la temperatura de la superficie sólida de la Tierra hasta el quinto dígito de la fracción decimal cada milla, ¿resulta tan útil como hasta el primer dígito del decimal cada 0,1 millas o sin decimal alguno, siempre y cuando la midamos en la superficie sólida y también hasta una milla de profundidad en el océano? Esto último representa tantos datos como lo segundo, que es 100 veces menos que lo primero. Sin embargo, la última medición proporciona datos de profundidad en el océano, un área tres veces mayor a la de la superficie sólida, y cuyo movimiento energético a través de las corrientes oceánicas es fundamental para el flujo de energía de la Tierra, y por lo tanto, para el calentamiento global. Cualquier predicción meteorológica basada en la primera medición, incluso con su inmensa precisión, puede considerarse incorrecta.

Los cambios en seres vivos y en máquinas que los emulan han aprovechado la capacidad de elucidar y mediar las interacciones a escala atómica y molecular mediante las prácticas biológicas y nanotecnológicas. No está lejos el día, posiblemente a mediados de siglo, en el que la distinción entre hombre y máquina pueda incluso considerarse una disquisición filosófica.

Esta discusión aboca a una cuestión esencial: los datos no son información y la información por sí sola no es conocimiento. Cada uno de ellos es una forma mayor y más operativa con la que uno puede trabajar de forma eficaz. Se pueden crear numerosos datos inútiles, por ejemplo, mediante una mayor precisión en la que la dicha precisión sea inútil si el resto de imprecisiones –del modelo y de otros datos e información– son importantes. Nos interesa la inferencia operativa a través del conocimiento. Esto requiere una perspectiva diferente. Necesitamos encontrar las respuestas a preguntas como: ¿qué es relevante?, ¿qué resulta importante a la hora de emitir juicios sólidos sobre los que uno pueda actuar? Cuando cruzamos una calle con tráfico realizamos numerosos juicios, ¿qué hará el conductor? La respuesta probablemente dependa del tipo de persona que conduzca el vehículo. No podemos juzgar tan rápidamente, por lo que empleamos la heurística, indicaciones visuales, hombre o mujer, la región de origen que uno puede ver en la matrícula y los rasgos que asociamos con dichas indicaciones. Comenzamos a hacer conjeturas, a veces acertadas, otras veces, erróneas, donde diversas características se asocian a la persona y al vehículo para emitir un juicio. Como persona que vive en una pequeña ciudad al norte de Nueva York, Ítaca, prácticamente un pueblo, me comporto de manera diferente en septiembre, cuando llegan los nuevos jóvenes procedentes de las zonas urbanas de Long Island y Nueva Jersey, que en marzo o abril, cuando ya tienen algo de experiencia sobre las expectativas de una comunidad universitaria rural, por lo que la influencia del entorno y el tiempo en los juicios también entra en juego en la toma de decisiones.

Aprenderemos formas más adecuadas de manejar estos problemas incompletos según nos vayamos alejando del estilo determinista del procesamiento de datos hacia un enfoque no determinista de la manipulación de la información y la extracción del conocimiento. La proliferación de elementos físicos a nanoescala y los datos forzarán una nueva dirección de la ciencia de la información, un paso hacia el descubrimiento de conexiones de corto y largo alcance, un desarrollo de la teoría de redes, representaciones irreducibles, patrones y respuestas sólidas tan cercanas al punto de recopilación de datos como sea posible, de forma que los avances a nanoescala se puedan aprovechar con la mínima energía pero de manera fehaciente. Lo que esto significa es que el hardware, hasta el momento determinista y digitalizado binariamente, prestará mucha más atención a los enfoques probabilísticos. Las máquinas utilizarán los datos recopilados para analizar de forma autónoma y aprender de ellos, ver si las predicciones son ciertas y, de este modo, aprender qué grupo de datos está ligado a una inferencia determinada. Tales máquinas serán intrínsecamente mucho más seguras, menos propensas a los comportamientos erráticos, incluso si las personas que las utilizan son incompetentes. La información se integrará gradualmente en la máquina como resultado de una mayor confianza y solidez obtenida a partir de predicciones cada vez más acertadas. La extracción y acumulación de información y conocimiento en la fuente, la aglomeración de dicho conocimiento desde múltiples flujos, el aprendizaje y la acción, así como la evolución, es decir, cambiar uno mismo en función tanto del conocimiento como de las modificaciones que se producen dentro de uno mismo, serán las cuestiones abordadas por las máquinas físicas que funcionen con una creciente eficiencia de conocimientos y un menor consumo de energía a la hora de inferir y realizar tareas. Los ordenadores, robots, etc. serán difíciles de reconocer según vaya cambiando su forma estática actual. Serán capaces de hablarnos, formular preguntas para obtener datos, extraer información de los mismos y, por consiguiente, elaborar el conocimiento que los hará más inteligentes.

Este cambio en sí mismo plantea numerosas preguntas de gran calado. ¿Cuándo se puede distinguir por sus acciones a dicha máquina del ser humano? En sus capacidades intelectuales, al explorar, al establecer conexiones, al encontrar patrones, al sacar conclusiones, debería contar con capacidades que superen la media humana. Después de todo, incluso la recopilación de datos más sencilla y los enfoques sobre reconocimiento de patrones han permitido a la Watson de IBM ganar el desafío de respuestas de las preguntas fácticas, y a los ordenadores ganar a campeones de ajedrez. ¿Puede esta máquina ser mentirosa, conservadora, liberal, incitar a la guerra? ¿Puede tener emociones? Sin duda creo que esto podría ser posible. Estas son respuestas características basadas en experiencias acumuladas y tendencias innatas, todas ellas representables matemáticamente y, por lo tanto, programables en máquinas para ser extraídas a partir de las experiencias.

La otra característica principal de los seres vivos es el metabolismo y la replicación. Necesitamos un flujo energético para ser dinámicamente estable. Nos reproducimos. Lo primero es sin duda cierto para una máquina, necesita energía para trabajar; reduzcamos la energía y podrá seguramente emplear técnicas mecánicas para apagar partes propias o ralentizarse para poder trabajar con menos. Se trata de trucos bastante elementales que una máquina aprende fácilmente. La reproducción es más difícil, pero probablemente posible. El hardware puede programar componentes para crear nuevas versiones de hardware. La separación de hardware y software es un constructo que ha surgido porque, al menos hasta la fecha, ha facilitado el proceso de creación de las máquinas. Mi opinión es que si resulta posible en la teoría, es posible en la práctica y que este será un enfoque principal dentro del periodo del ciclo creativo.

Esta teoría de máquina auto-replicante y consumidora de energía, un autómata auto-replicante, fue originariamente descrita por Von Neumann al inicio de la era informática moderna. El autómata requiere algunas piezas diferentes. Una recopila los recursos de materiales y energía para procesar y ejecutar la producción. Otra duplica instrucciones mediante la copia pasiva y las transfiere a la primera. Ambas partes reciben instrucciones que las controlan para la acción y la copia, y este controlador mantiene su copia recibida de la instrucción para su propio conocimiento acumulativo. Finalmente, este autómata dispone de otra unidad que contiene la especificación: el código de construcción, los principios de diseño, que hacen que las otras tres actúen como una unidad auto-replicante. En las máquinas informáticas actuales, lo último es el software, y la máquina procesa los datos bajo control guiada por el software. El software se puede reproducir pero normalmente no reproducimos hardware. No obstante, no existe ninguna barrera fundamental para ello.

En biología, esta maquinaria de software y hardware está entrelazada. Las proteínas, y existen muchas, realizan funciones específicas para separar y montar lo que los seres vivos necesitan. Una parte del cuerpo es proteína, por ejemplo, el colágeno de todo el cuerpo; otras forman los vasos sanguíneos o los tejidos pulmonares, otras son responsables de transportar sustancias o de metabolizar el azúcar, etc. El ribosoma es el controlador formado por varias cadenas de ADN, incluidas las funciones de transcripción y envío de mensajes, y resulta esencial para la síntesis de las proteínas (cadenas altamente complejas y largas de moléculas, cuya acción, reacción y comportamiento todavía estamos en proceso de entender). El código lineal del ADN es lo que esta máquina basada en ribosomas convierte en la producción de proteínas mediante el paso de transcripción que sintetiza el ARN mensajero seguido por una traducción para crear la proteína a partir del ARN mensajero. Dicha biología tal y como se describe aquí y se considera, constituye sin duda un autómata. Las partes física y de conocimiento de la máquina se separan dentro de la célula en ADN que transporta el código de software de conocimiento, y el resto es la maquinaria física que ejecuta el código. Por ello, podemos ver que la máquina emergente ciertamente comparte una gran cantidad de características que normalmente asociamos a las ciencias de la vida. Las preguntas que se plantean son diversas.

Un conjunto de preguntas relevantes estará asociado al aprendizaje y a la concienciación sobre lo que observamos a nuestro alrededor. ¿Cómo se relaciona la dinámica de este sistema con el manejo de la información, su organización y su existencia a largo plazo a través de sí misma y de la reproducción? ¿Qué hace que determinadas condiciones resulten más favorables que otras? En un torrente que fluye (Dyson 2007), cuando un niño introduce un palo en un remolino, el remolino desaparece. Pero, si quita el palo, el remolino se forma de nuevo. El niño lo vuelve a golpear. Pero se vuelve a formar. Este es el juego fascinante de la vida en la que esta existe como un patrón recalcitrante en el flujo de la energía. Imagine la red de aviones y aeropuertos que traslada a los seres humanos. Hay una tormenta en Chicago. De pronto, los viajeros de todo Estados Unidos comienzan a verse afectados, incluso aquellos que viajan desde Miami a San Francisco, que ven sus vuelos cancelados y retrasados. Podría suceder debido a que el avión que debía aterrizar en Chicago desde cierto origen no llegó a hacerlo, o se desvió su ruta a otra más adecuada, o bien se produjo otro conjunto de efectos conectados. Sin embargo, el sistema es adaptativo, una vez que la tormenta haya desaparecido, se restaura la red que traslada a los seres humanos. La naturaleza es un sistema dinámico complejo, somos una organización dinámica compleja y, del mismo modo, lo es la conexión de las máquinas.

Estas características están relacionadas con la estabilidad, surgen como un fenómeno emergente en presencia del flujo de energía. Con dicho flujo, las máquinas aprenden y evolucionan incrementando su capacidad y eficiencia y, durante el proceso, se fortalecen sus capacidades de inferencia ante la incertidumbre. A lo largo de este proceso se convierten en sistemas autónomos con capacidad para entender, elucidar, incluso predecir resultados sobre problemas complejos con cierta fiabilidad; ¿de qué manera todas las causas, efectos y relaciones interconectadas derivan en el calentamiento global? ¿cómo acciones diferentes llevan a efectos económicos distintos que impactan a la sociedad? Nuestras máquinas emergentes serán capaces de abordar estas preguntas.

Esta cuestión de sistemas complejos, es decir, uno en el que existe un gran número de partes interconectadas con sus fortalezas y debilidades de creencias, de conexiones, ejemplifican la complejidad del mundo que lidiamos. Con la nanoescala tiene lugar esta amplia relación de interconexiones de componentes heterogéneos. Existe una diversidad de sensores que miden las características médicas, medioambientales, humanas, financieras, económicas y sociales, conectados unos con otros en un sistema global. Este sistema complejo debe ser robusto, por lo que incluso con la rotura de elementos en uso, la generación de otros nuevos y su conexión a dicha red, prevalecerá el comportamiento sensato y predecible. Este funcionamiento sólido de sistemas físicos interconectados, vital para nuestro nivel de confort vital, será uno de los logros del periodo que se avecina.

Entre los ejemplos de complejidad biológica que ahora comprendemos cabe destacar: redes reguladoras de genes para controlar la diferenciación celular en procesos de desarrollo y reparación de tejidos; el restablecimiento de la estructura y función del tejido tras una pérdida significativa de masa tisular; o el procesamiento de información visual en el córtex. Los principios que ello pone de relieve son el recableado de los módulos (genes), la alta conectividad de los componentes (adaptabilidad y tolerancia a los fallos), la retroalimentación y prealimentación, así como los procesos impulsados por gradientes. En otras palabras, estamos empezando a entender los principios compartidos entre el mundo biológico y los principios necesarios según se van haciendo tan complejas las máquinas físicas como lo son las máquinas biológicas. Por ejemplo, ahora 100 neuronas se pueden montar fácilmente en un chip semiconductor. Esto nos otorga la capacidad rudimentaria de explorar comportamientos interesantes/emergentes que suceden incluso en montajes a escala tan pequeña.

Estos ejemplos muestran la capacidad otorgada por los cambios físicos gracias al control de lo físico a escala molecular y atómica. Hemos aplicado varias de estas técnicas durante la última década, y durante mucho tiempo para entender y controlar los fenómenos a escala atómica mediante la manipulación atómica, por ejemplo, utilizando pequeños voladizos para recoger átomos y moléculas, y colocarlos en otro lugar sobre una superficie, con vistas a construir objetos físicos utilizables. Sabemos cómo atrapar simples moléculas utilizando pinzas ópticas de forma que las podamos describir de forma detallada. Sabemos cómo medir muchas otras propiedades con exquisita precisión mediante dispositivos de inferencia cuántica ultrasensibles. También hemos utilizado técnicas similares para construir un mundo microscópico con el fin de evaluar su comportamiento. Un LOC (laboratorio en un chip) nos permite actualmente entender minuciosamente el comportamiento de las sustancias químicas, las macromoléculas, las células, las bacterias así como otros elementos en un pequeño entorno bajo condiciones controladas. Esto nos permite saber cómo se comunican las bacterias y cómo responden colectivamente, verbigracia, con la detección del quórum, o cómo distintas sustancias químicas afectan a la seguridad de objetos vivos; o cómo se pliegan las proteínas; o cómo tienen lugar algunos de los fenómenos más complejos de la vida.

No resulta demasiado difícil visualizar cómo estas mismas técnicas nos llevarán a la experimentación paralelamente a la aleatoriedad y las mutaciones inherentes a los procesos de la naturaleza, comprender la causa y los efectos, y seleccionar lo más ventajoso de las mutaciones. Es decir, en lugar de utilizar un ciclo de vida útil, como hace nuestro mundo vivo en su supervivencia wallace-darwiniana de los más aptos, realizamos estos procesos en paralelo, más rápido, para seleccionar los más útiles para nosotros mismos. Seremos capaces de explorar y utilizar este proceso evolutivo a través de la máquina de síntesis pos-wallace-darwiniana.

Su poder reside en la capacidad de realizar experimentos a escala de sistemas sobre muchos componentes activos interrelacionados: muchos genes modificados unidos unos con otros, la ingeniería metabólica, las proteínas fotosintéticas y muchos otros.

La construcción de pequeñas y grandes moléculas será el precursor de la capacidad de esta máquina de evolución para explorar y elaborar respuestas a diversos problemas sociales y sus enfermedades, con la evolución como un anexo construccionista a la optimización permitida por la ingeniería. Los cambios genéticos se volverán prácticos para corregir las enfermedades de origen genético, por ejemplo, el daltonismo. Será posible dotar al ser humano de características que actualmente no posee, léase, la sensibilidad del ojo a la región infrarroja del espectro electromagnético como en la mayor parte de los animales nocturnos, o el espectro más alto o más bajo de audiofrecuencias como en el oído de los murciélagos y los perros. Será capaz de construir genomas complejos con propiedades útiles para la sociedad. El uso de enzimas en detergentes es un buen ejemplo del nuevo enfoque sobre la utilización de proteínas en la fabricación, con unos costes muy bajos. Las vacunas son otro elemento importante. Estas últimas tienen un volumen bajo y un coste elevado. Pero tales ejemplos escasean. La síntesis actual de las proteínas utiliza la síntesis de fase sólida, la ligación de péptidos, la traducción in vitro, las vías no ribosómicas, y los sistemas basados en células, todos ellos de producción lenta y de bajo volumen, salvo en el caso de las enzimas para detergentes. Los métodos controlados escalables para la síntesis de proteínas a través de estas máquinas de evolución posibilitarían la producción en gran volumen y de bajo coste de nuevas clases de proteínas tanto para el campo biomédico –diagnóstico, tratamiento terapéutico y vacunas– como para el uso industrial –catalizadores y materiales autorreparables.

Los microorganismos son los organismos más simples que también podrían ser los más sencillos de modificar profundamente mediante múltiples cambios genéticos evolutivos experimentales. Modifiquemos la maquinaria fotosintética de los organismos para acoplarla sólidamente a la producción de combustible mediante la ingeniería metabólica y seremos capaces de ofrecer mejoras en la eficiencia de los biocombustibles. Nuevamente, esta modificación requerirá múltiples cambios genómicos para que el sistema en su conjunto sea robusto, equilibrando las múltiples vías existentes y proporcionando eficiencia en el proceso de fotosíntesis que actualmente se basa en el fotosistema I y el fotosistema II, que convierte la energía lumínica en energía química en el seno de moléculas vegetales.

Uno de los éxitos más impresionantes en la ingeniería física con la reducción de las dimensiones es la variedad de herramientas compactas que utilizamos en nuestra vida diaria. La miniaturización también ha beneficiado a los humanos en el ámbito de la asistencia médica.

Si se ha descodificado realmente el lenguaje genético y se ha creado la célula sintética (Gibson 2010), una dirección útil de la ingeniería es la manipulación y programación de las células, de forma que puedan convertirse en eficientes fundiciones vivas, fábricas a escala celular. Serían especialmente útiles en la creación de vacunas de rápida síntesis y a gran volumen, y posiblemente en el descubrimiento de nuevos métodos, como a través de proteínas y sistemas autoinmunes en la lucha frente a enfermedades emergentes inmunes a los antibióticos.

Por su parte, los orgánulos desempeñan un gran número de funciones celulares. Realizan tareas dentro de una célula similares a las de los órganos dentro del cuerpo. Por ejemplo, la mitocondria crea adenosín trifosfato (ATP), que es la sustancia química que transporta la energía; los espliceosomas, un complejo de ARN especializado y subunidades proteínicas, digieren proteínas; el aparato de Golgi empaqueta proteínas dentro de las células antes de trasladarlas y el citoesqueleto, una suerte de andamio celular, genera fuerza permitiendo la locomoción celular y la contracción muscular. Lo que no entendemos es cómo funciona en detalle esta maquinaria dentro de la célula. En nuestro enfoque actual de las tecnologías de dispositivos, empleamos detección in vivo a gran escala y la administración de medicamentos o la introducción de material genético para modificar las células. Deberíamos ser capaces de diseñar sistemas ultracompactos a nanoescala para entender el proceso a nivel celular, cómo funcionan los poros nucleares, midiendo la maquinaria celular iónica mientras trabaja y siguiendo las vías metabólicas de más amplia duración. Esto abocaría a la ingeniería de enfoques basados en partículas para el rediseño y el aumento de las funciones celulares, incluidas las funciones celulares para la generación de ATP, la ampliación del rango electromagnético sobre el que responden las células y permitiendo, de este modo, el seguimiento y la manipulación de células individuales. Esto resultaría en técnicas para la restauración de las funciones perdidas de las células, la reparación de tejidos/heridas, las transfusiones biónicas de sangre, los sensores basados en células y el camuflaje. La especificidad de estos enfoques nos permitirá abordar con eficacia la infinidad de formas cancerígenas y los tumores.

Las máquinas de evolución nos permitirán asimismo explorar métodos para la modificación vegetal. Las plantas, incluidas las algas, en lugar de seres vivos, son quizás una vía más simple y segura para la evaluación de la bioingeniería antes de embarcarnos en la tarea más ambiciosa de los organismos complejos. La máquina de evolución nos ofrece la oportunidad de la modificación vegetal para la creación de una mayor capa superficial de suelo: una forma natural de conseguir carbono, de producir energía de forma eficiente mediante la creación de plantas en las que las conversiones enzimáticas resulten más sencillas, de desarrollar plantas como fuente de alimentos que utilicen una menor cantidad de agua, de modificar plantas que proporcionen una dieta variada a los seres humanos, de crear plantas que limpien el vertido de fertilizantes en sistemas acuáticos y de permitir la conversión de energía mediante procesos fotosintéticos modificados.

Se podría explorar más allá de los problemas inmediatos a los que se enfrenta la humanidad. Dada una necesidad funcional, la máquina de evolución permitiría crear métodos de fabricación mejor adaptados a la supervivencia, de igual modo que hace un organismo, con propiedades que fuesen útiles. Sería escalable, podría producir un producto o millones de productos; adaptativa, tanto el producto como el proceso trabajarían dentro de una serie de parámetros; reparable, se repararía a sí misma y corregiría errores según los fuese encontrando, y sería un autoconstructor, construiría las herramientas y realizaría los montajes necesarios para las tareas.

Estas corrientes especulativas, de la máquina como una forma de vida paralela, y sobre la capacidad de mimetizar y manipular la naturaleza para crear nuevas formas de vida, deriva naturalmente en la pregunta más profunda de dónde termina lo inanimado y comienza lo animado. Los próximos cincuenta años resultarán desconcertantes al dejar de plantear dicha pregunta como tal.

En la última década, los implantes neurales, las prótesis y los acoples cableados e inalámbricos para la mejora de las enfermedades han logrado grandes éxitos en la unión entre el procesamiento de la información y el mundo vivo. Los implantes pueden proporcionar una capacidad visual en escala de grises en determinadas enfermedades visuales2; la depresión se puede controlar mediante la optogenética (Deisseroth 2010), la exposición local del cerebro a la luz; los ataques epilépticos parecen seguir numerosas horas de actividad potencial que pueden ser controladas (Litt 2001) y, por lo tanto, cabe suponer que se pueda actuar sobre ellos antes de que se produzcan; los implantes cocleares mejoran la audición y las prótesis permiten a las personas caminar y realizar, bajo control neuronal, tareas simples como pelar plátanos o beber de un vaso. Muchas de ellas se basan en la señalización nerviosa. En la actualidad, se acepta de buen grado el uso del enfoque matemático simple de las correlaciones en el ámbito protésico. Todos ellos son ejemplos en los que se produce la fusión entre el hombre y la máquina de una forma muy rudimentaria. Sin embargo, todo esto cambiará drásticamente cuando los jóvenes de hoy en día crezcan con el conocimiento técnico integrado del mundo físico y del vivo, y la simbiosis continúe su curso inexorable. Sabrán cómo explotar la transdiferenciación racional utilizando redes reguladoras de genes y los enfoques de interferencia genética para reprogramar una célula diferenciada con vistas a su uso en máquinas físicas. Las propias máquinas físicas sabrán cómo integrarse a sí mismas dentro de una célula y trabajar con las formas complejas creadas conjuntamente a través de la fusión.

Utilizando el hardware avanzado de las máquinas emergentes y los avances de los conjuntos neuronales, la radiotelepatía se volvería posible (el uso de conexión inalámbrica a las neuronas para la actividad humana). Utilizando el aprendizaje de procesos neuronales, se podrán eliminar los efectos de las enfermedades cerebrales y llevar a cabo una reparación cognitiva, aportando un alivio a las personas y a las familias que sufren las consecuencias de las enfermedades debilitantes como el autismo, el Parkinson o el Alzheimer. Tales interfaces cerebro-computadora no invasivas e invasivas que aprovechan la plasticidad cerebral representarían para los seres humanos todo un logro de ingeniería.

Una idea fascinante al hilo de esta vía especulativa es que si realmente tenemos en la máquina un buen modelo del constructo humano –sus emociones, personalidad, experiencias– entonces, también contamos con los medios necesarios para que viva en una máquina, donde sería indistinguible de la forma real en su respuesta, tal y como sucede en el test de Turing (Dyson 2007). En el caso de la enfermedad de Alzheimer o de la pérdida de conexión o función cerebral, o incluso en caso de muerte del órgano, uno podría “vivir” en una forma humana de silicio. El programa se instala en un cuerpo robótico y se hace cargo de la vida y las responsabilidades del ser humano.

Esto nos enfrenta a numerosos y asombrosos interrogantes. ¿Dónde está el final? Esta no es una pregunta que pueda responder con facilidad. Creo que hay dos hechos vitales que no cambiarán. La ciencia seguirá siendo impredecible con la aparición constante de nuevas ideas y oportunidades. La ingeniería, con nosotros como animales fabricantes de herramientas, seguirá siendo vital para el ejercicio de nuestra creatividad. Sencillamente, dicha creatividad se está desplazando lentamente hacia el ámbito de la complejidad física y biológica. Seguirán quedando preguntas fascinantes. Entre algunas de las que seguirán estando ahí tras este periodo que he abordado cabe destacar las siguientes:

  1. ¿Entenderemos por qué la vida es tan inmensamente complicada? ¿Entenderemos los sistemas vivos en un sentido profundo: estables, complejos, dinámicos? ¿Entenderemos las emociones: el amor romántico o la tristeza? ¿Entenderemos el desarrollo de habilidades en niños pequeños o el juego enrevesado de los estados de ánimo, las emociones, el aprendizaje y la comprensión en las especies? ¿Seremos capaces de construir un modelo matemático predictivo de los mismos? Por ejemplo, ¿seremos capaces de cartografiar de forma completa el “software” del ADN de las especies? En la actualidad, ni siquiera podemos responder a la pregunta de por qué una simple modificación genética cambia completamente las especies.
  2. La capacidad para sentir y relacionarnos con otras personas ofrece a los seres humanos capacidades realmente únicas cuando se integran con la actividad intelectual. ¿Tendrán las máquinas esta conciencia, voluntad propia, conocimiento de sí mismas, emociones, sentimientos, personalidades, etc., características emergentes que asociamos con la vida basada en el carbono? ¿De qué manera se diferenciarán de dicha vida basada en el carbono? ¿Sufrirán enfermedades tales como la depresión o el alcoholismo?
  3. ¿Los humanos seremos más inteligentes o la mayor parte de la tecnología se utilizará para la reparación? ¿Quién será más inteligente? ¿El hombre o la máquina, o será el humano de silicio?
  4. ¿Seremos capaces de enviar al espacio exterior una máquina emergente o simplemente el código del autómata (el código genético para los seres vivos, o el código de la máquina física, o el código del humano de silicio), donde se creará a sí mismo en forma de máquina, logrando así el movimiento de la vida sintética en el universo, y descubriremos finalmente a través de esto que estamos solos o que no hay nada realmente único en nosotros?
  5. ¿Se mantendrá nuestra creencia en la teoría wallace-darwiniana de la selección natural como el mecanismo básico de la evolución, en que la vida se adapta a sí misma a las condiciones concretas del planeta? ¿O tendrán que cambiar nuestras creencias hacia la hipótesis de Gaia en la que la vida no se adapta simplemente a las condiciones que la rodean sino que las cambia para sobrevivir y perpetuarse? ¿Dónde encaja la tecnología en todo esto? ¿Dónde encajará la justicia social como resultado intelectual emergente de nuestra especie en esta fusión hombre-máquina? ¿Es el hombre de silicio una nueva especie en esta evolución?
  6. Si se alarga la vida del ser humano, ¿cómo cambiará su cuerpo? El diseño del cuerpo para vivir más tiempo no puede ser el mismo que el destinado a una duración de setenta a ochenta años como el actual.

Y lo más importante de todo: ¿será el paraíso perdido? ¿o será el paraíso recuperado? Esto solo lo desenmarañará la forma en la que abordemos las sempiternas cuestiones del pecado y la virtud, o de sus tonalidades grises intermedias, gracias a nuestra sabiduría colectiva adquirida sobre este pequeño planeta, una mera mota dentro del inconmensurable universo. Solo la ética, no abordada aquí, puede llenar el vacío creciente entre la tecnología y las necesidades humanas, aspecto que tampoco hemos tratado. ¿Están la ciencia, la ingeniería y la tecnología al servicio de las necesidades humanas o para tomar un derrotero emergente propio? Solo nosotros, como Adanes y Evas, mediante nuestras acciones, determinaremos este curso futuro según vayamos transitando por las regiones grises de la vida.

Bibliografía

Deisseroth, Karl. 2010. “Controlling the Brain with Light”, Scientific American, 20 de octubre.

Dyson, Freeman J. 2007. A Many Colored Glass: Reflections on the Place of Life in the Universe. Charlottesville: University of Virginia Press.

Gibson, D., et al. 2010. “Creation of a Bacterial Cell Controlled by a Chemically Synthesized Genome”, Science, 20 de mayo. DOI: 10.1126/science.1190719.

Litt, Brian, et al. 2001. “Epileptic Seizures May Begin Hours in Advance of Clinical Onset: a Report on Five Patients”, Neuron 30 (1): 51-64.

Spector, Michael. 2010. “A Deadly Misdiagnosis: Is it possible to save the millions of people who die from TB?”, The New Yorker, 15 de noviembre. Disponible en http://www.newyorker.com/reporting/2010/11/15/101115fa_fact_specter

Sun, Nan, et al. 2010. “Palm NMR and One-Chip NMR”. International Solid State Circuits Conference. IEEE Journal of Solid-State Circuits, 46 (1). Disponible en http://people.seas.harvard.edu/~donhee/jssc2011palm-1chip-NMR.pdf

Vella, Sarah J., et al. 2012. “Measuring markers of liver function using a micropatterned paper device designed for blood from a fingerstick”, Analytical Chemistry 84 (6): 2883-2891.

Notas

  1. Véanse los procedimientos quirúrgicos mínimamente invasivos realizados por máquinas bajo control médico enumerados en http://www.davincisurgery.com/
  2. Véase http://www.telegraph.co.uk/science/science-news/9243223/Eye-implant-restores-vision-to-blind-patients.html en donde se describe la restauración de la visión de dos pacientes ciegos.

 

Citar esta publicación
Descargar Kindle (4,2 MB)
Descargar EPUB (1,8 MB)
Descargar PDF (1,0 MB)
Ver libro 2013 Hay futuro: visiones para un mundo mejor
Escuchando
Mute
Cerrar

Comentarios sobre esta publicación

Escribe un comentario aquí…* (Máximo de 500 palabras)
El comentario no puede estar vacío
*Tu comentario será revisado antes de ser publicado
La comprobación captcha debe estar aprobada