Elaborado por Materia para OpenMind Recomendado por Materia
27
Inicio Innovación: es un hecho generalmente aceptado que la ciencia conforma la tecnología, pero ¿eso es todo?
Artículo del libro Innovación. Perspectivas para el siglo XXI

Innovación: es un hecho generalmente aceptado que la ciencia conforma la tecnología, pero ¿eso es todo?

Tiempo estimado de lectura Tiempo 27 de lectura
«En las condiciones industriales modernas la tecnología ejerce una enorme influencia sobre la ciencia»

Para no prolongar el suspense, adelantaré que la respuesta correcta a la pregunta es la obvia: la causalidad se da en los dos sentidos. Pero mi objetivo es convencer al lector de que la causalidad que va de la tecnología a la ciencia es mucho más intensa de lo que normalmente se cree. El razonamiento es sencillo: una economía de mercado genera importantes incentivos para llevar a cabo ciertos tipos de investigaciones científicas. Esto se debe a que los posibles hallazgos de esas investigaciones se pueden emplear para mejorar el rendimiento o reducir el coste de algunas tecnologías que son vitales para el éxito competitivo de ciertas empresas con ánimo de lucro. Además, en mi opinión, a lo largo del siglo XX han confluido grandes fuerzas que han multiplicado las formas en las que los cambios del ámbito tecnológico han engendrado cambios en los distintos campos de la ciencia. Me gustaría llamar la atención del lector sobre algunas de las transformaciones más importantes experimentadas desde el punto de vista organizativo y de los incentivos, cuyo efecto ha sido una intensificación de las fuerzas causales que fluyen de la tecnología a la ciencia.

Para ello, necesito recurrir en este artículo a un término especializado: emplearé el vocablo endógeno desde la perspectiva del economista y no desde la del científico. Así pues, cuando hablemos de la naturaleza endógena de la ciencia, nos referiremos a la medida en que el progreso científico se ha visto directamente influenciado por el funcionamiento de las fuerzas normales del mercado. La justificación para este uso es que a lo largo de este ensayo trataremos de identificar aquellas fuerzas surgidas en el transcurso del siglo XX que han hecho que la investigación científica sea más sensible a los incentivos económicos.

Permítaseme subrayar un matiz fundamental en este análisis: no estoy sugiriendo de forma implícita que el respaldo financiero a la investigación científica del país deba quedar en manos del mercado. Solo pretendo poner de manifiesto el funcionamiento de algunas fuerzas del mercado cuyo papel en el fomento de la investigación científica ha ido en aumento. Creo que estos avances han sido cruciales para la rápida expansión de la industria norteamericana, lo que no equivale en absoluto a insinuar que las fuerzas del mercado, por sí solas, hayan bastado.

Laboratorios de investigación corporativos

Para articular la proposición de que a lo largo del siglo XX la investigación científica se volvió más y más endógena, debemos comenzar por el análisis de una innovación organizativa fundamental: el laboratorio de investigación industrial. Fueron estos laboratorios corporativos los que determinaron el alcance del impacto de las necesidades de la economía general en las actividades de la comunidad científica. Pero esta afirmación, por sí sola, no basta para describir el fenómeno. La razón es que, para funcionar con eficacia, esos laboratorios de investigación dependían a su vez de una red de instituciones, entre las que destacan las universidades y la investigación que se desarrollaba en ellas. Antes de la Segunda Guerra Mundial, la investigación universitaria tenía una fuerte dependencia financiera de instituciones filantrópicas privadas como las fundaciones Rockefeller, Guggenheim y Carnegie. Por otra parte, en el periodo anterior a la guerra, las universidades contaban a menudo con el respaldo financiero de la industria local para desarrollar ciertas clases de investigación, casi siempre de naturaleza aplicada. Esta situación se daba, muy especialmente, en las universidades estatales, en las que era esencial demostrar que se ayudaba a la industria (agricultura, minería, ferrocarril) local a fin de justificar la carga impositiva que estos centros generaban para los ciudadanos de los distintos estados. De hecho, salvo raras excepciones, los fondos reunidos por los gobiernos estatales se destinaban en su mayoría a la enseñanza y no a la investigación.

Esta situación cambió radicalmente tras la Segunda Guerra Mundial, cuando el gobierno federal se convirtió en el principal patrocinador de la investigación científica y las universidades pasaron a ser el motor fundamental de esa investigación. Es importante señalar que la concentración de investigación científica básica en la comunidad universitaria en la que, justo es reconocerlo, ha prosperado, es un esquema organizativo casi exclusivo de Estados Unidos. A diferencia de lo que ocurre en Europa occidental, donde la investigación básica se concentra en los laboratorios gubernamentales (Max Planck, CNRS), los laboratorios federales de Estados Unidos están detrás de menos del 10% de la investigación básica (9,1% a mediados de los años noventa).

Otro rasgo distintivo de gran relevancia en Estados Unidos es el profundo compromiso de la industria privada con la investigación científica que la National Science Foundation (NFS) define como básica. La industria privada llevó a cabo algo más del 30% de la investigación básica desarrollada en el año 2000 (es probable que esta tendencia se haya reducido ligeramente en los últimos años). Aunque uno de los últimos recuentos realizados arrojaba un total aproximado de 16.000 compañías privadas que disponían de laboratorios corporativos propios, una amplia mayoría de esas empresas se dedica principalmente a la investigación aplicada. Solo en un número muy reducido de ellas tiene cabida la investigación básica. No obstante, con el tiempo, algunos de estos laboratorios corporativos —como General Electric, IBM y, sobre todo, Bell Labs antes de su separación de AT&T en 1984— han realizado investigación que no se puede considerar sino fundamental. Son varios los investigadores de diversos laboratorios corporativos que han ganado premios Nobel. Un ejemplo es el de Jack Kilby, de Texas Instruments, galardonado en el año 2000 con el Nobel de Física por las investigaciones que llevaron al desarrollo del circuito integrado. La investigación de Kilby recibió apoyo financiero del gobierno federal.

Dicho esto, es esencial entender que las actividades investigadoras de los laboratorios industriales no se deben evaluar —algo que a menudo hacen los estudiosos— usando los criterios académicos habituales, como las publicaciones en revistas profesionales de prestigio o la obtención de premios Nobel. El propósito de estos laboratorios es bien distinto. El laboratorio industrial es en esencia una innovación institucional de origen alemán cuya agenda de investigación viene definida en buena medida por las necesidades a corto plazo, aunque también, en unos pocos casos destacados, por las estrategias que las firmas industriales desarrollan más a largo plazo. En el ámbito industrial, la función asignada a los científicos corporativos es mejorar el rendimiento de sus empresas en el competitivo contexto de los sectores de la economía dedicados, sobre todo, a la alta tecnología. Así, el logro fundamental del crecimiento del laboratorio industrial americano a lo largo del siglo XX ha sido someter la ciencia, cada vez más, a criterios comerciales. Y al hacerlo la ha transformado en una actividad cuyas líneas de desarrollo se han plegado progresivamente a las fuerzas económicas y se han concentrado en la consecución de objetivos económicos, lo que equivale a decir que estas investigaciones científicas deben considerarse predominantemente endógenas.

Otra función estratégica de los laboratorios corporativos se deriva del hecho de que una empresa no puede supervisar y evaluar con eficacia los hallazgos y las posibles implicaciones del enorme volumen de investigación que se desarrolla en la universidad si no cuenta con los medios internos necesarios para hacerlo. Este es un factor crucial cuya importancia no podemos dejar de subrayar. En las sociedades industriales avanzadas, anegadas actualmente por el flujo de información procedente no solo de las universidades, sino también de las publicaciones profesionales que se acumulan en las estanterías de las bibliotecas, y del obtenido en formato electrónico a través de motores de búsqueda de Internet como Yahoo y Google, sacar partido de este vasto flujo de información exige una capacidad interna que, normalmente, solo pueden aportar los científicos de las propias empresas. De hecho, los excepcionales éxitos comerciales que Estados Unidos ha conocido en los mercados de la alta tecnología en los últimos cincuenta años deben mucho a estas aptitudes internas existentes en el sector privado. Los científicos industriales han desempeñado un papel crítico en la transferencia del conocimiento potencialmente útil generado por la investigación universitaria no solo por su competencia científica, sino también por su clara visión de las prioridades comerciales y las capacidades tecnológicas de sus empresas (Rosenberg, 1990, 2002; Mowery y Rosenberg, 1998).

Influencia de las disciplinas de la ingeniería en la ciencia

Me gustaría analizar a continuación otra fuerza que ha sido esencial en el avance de la naturaleza endógena de la ciencia a lo largo del siglo XX. Empezaré planteando una pregunta: ¿cuál ha sido el papel desempeñado por las disciplinas de la ingeniería en la definición de la agenda científica de las empresas privadas? Permítanme responder ofreciendo en primer lugar una aclaración. Es habitual clasificar las distintas disciplinas de la ingeniería como ciencia aplicada. Esta es, en mi opinión, una definición extremadamente engañosa. Un análisis más concienzudo de los vínculos existentes entre la ciencia y la tecnología sugiere que la disposición de las empresas con ánimo de lucro a invertir fondos en la investigación científica está muy influida por la perspectiva de transformar los hallazgos de esa investigación en productos acabados que se puedan comercializar. El desarrollo real de la investigación científica no se aborda con objetivos demasiado precisos en mente, sino más bien con la confianza reforzada de que, sean cuales sean esos descubrimientos científicos, una mayor capacidad de ingeniería incrementará considerablemente la probabilidad de que los hallazgos se puedan emplear para llevar hasta el mercado productos nuevos o mejorados.

Desde este punto de vista, hay un sentido en el que un economista podría argumentar seriamente que la ciencia química se debe considerar una aplicación de la ingeniería química. Dicho de otra forma, la creciente complejidad de las disciplinas de la ingeniería ha tenido como resultado un fortalecimiento de la naturaleza endógena de la ciencia. No me gustaría que este punto pareciera demasiado paradójico. Lo que pretendo sugerir es que la voluntad de la industria privada de invertir recursos financieros en investigaciones científicas de larga duración se ha visto en buena medida reforzada por el progreso de las disciplinas de la ingeniería relacionadas con ellas. Este progreso aumenta la confianza que los responsables de las decisiones corporativas tienen en que, con el tiempo, se encontrarán usos rentables para los hallazgos de la investigación básica.

Este argumento parece particularmente pertinente en el caso de la química de polímeros, un campo inaugurado por las investigaciones que Staudinger, Meyer y Mark llevaron a cabo en Alemania en la década de 1920. Al menos en Estados Unidos, la química de polímeros es un campo dominado desde hace tiempo por la comunidad investigadora industrial. Las contribuciones fundamentales a la investigación de la química de polímeros desarrolladas por Wallace Carothers en Du Pont desde 1928 debieron mucho a la madurez ganada desde unos diez años antes por la ingeniería química, una disciplina de la ingeniería a la que Du Pont ha realizado aportaciones importantes (véase Hounshell y Smith). Los hallazgos de las investigaciones de Carothers llevaron directamente al descubrimiento del nailon, la primera de una larga serie de fibras sintéticas que dio pie a un subsector totalmente nuevo de la industria petroquímica tras la Segunda Guerra Mundial. Pero es dudoso que Du Pont se hubiera implicado inicialmente en las carísimas investigaciones fundamentales de Carothers en el campo de la química de polímeros si los progresos experimentados por la ingeniería química durante la década anterior a 1928 no se hubieran producido. Así pues, el progreso en el nivel tecnológico (ingeniería química) fue fortaleciendo la disposición a invertir dinero en la ciencia, algo que en mi opinión supuso un paso adelante en la naturaleza endógena de esta (Rosenberg 1998).

Permítanme esbozar los pasos intermedios que sustentan mi argumento. La ingeniería química dio sus primeros pasos en la segunda y la tercera década del siglo XX, fundamentalmente en el MIT (Massachusetts Institute of Technology), en respuesta a la espectacular expansión de la industria automovilística y a la voraz demanda de productos químicos refinados (sobre todo, claro está, gasolina de alto octanaje) que tuvo lugar en paralelo al crecimiento del sector. La escala de ese crecimiento queda reflejada en las siguientes cifras: en 1900, la industria automovilística era tan insignificante que la oficina del censo clasificaba los coches en la categoría «Varios» (aquel año había solo 8.000 vehículos registrados en Estados Unidos). En 1925, el sector automovilístico había crecido hasta el punto de convertirse en la industria de fabricación más grande de todo el país (medida según el valor añadido).

Fue el crecimiento del sector de la automoción lo que dio pie a la disciplina de la ingeniería química. Durante la década de 1920 y el periodo posterior, los ingenieros químicos hicieron que la industria de refinado del petróleo pasara de una producción por lotes de pequeña escala a un procesamiento ininterrumpido con una escala considerablemente superior. Para lograrlo, la disciplina emergente de la ingeniería química desarrolló un nuevo marco conceptual dentro del cual resultaba posible introducir metodologías y conceptos científicos como el flujo de fluidos (dinámica de fluidos), la transferencia de calor y, en los años treinta, la omnipresente y pujante termodinámica. En otras palabras: el diseño de las plantas de procesos químicos tenía ahora un alto número de campos científicos diferentes a los que recurrir. Así pues, fue el establecimiento de una nueva disciplina de la ingeniería, en respuesta a la rápida expansión de una nueva tecnología de transporte, lo que a su vez sentó las bases de la rentabilidad de la investigación científica, no solo en Du Pont y en las refinerías de petróleo, sino también en una amplia gama de industrias que también daban uso a las plantas de procesos químicos. No olvidemos la enorme proliferación de plantas de procesos químicos que se registró a lo largo del siglo XX. Se podían encontrar grandes plantas químicas en sectores como el refinado de petróleo, el caucho, el cuero, el carbón (plantas de destilación de productos derivados), el procesamiento de alimentos, el refinado de azúcar, los explosivos, la cerámica y el vidrio, el papel y la pasta de papel, el cemento y la industria metalúrgica (aluminio, hierro y acero, entre otros).

Los nuevos productos y su efecto sobre la ciencia

La siguiente observación relacionada con la naturaleza crecientemente endógena de la investigación científica va más allá del papel desempeñado por las disciplinas de la ingeniería en el fortalecimiento de los incentivos privados a la investigación científica. El razonamiento en este caso es que el desarrollo de un nuevo producto al que se le presupone un gran potencial comercial puede proporcionar —y de hecho ha proporcionado en muchos casos— un importante estímulo para la investigación científica. Esta proposición solo sorprende si ya se ha aceptado una visión del proceso de innovación lineal, rígida y excesivamente simplista que dé por hecho que la causalidad va siempre de la investigación científica precedente al diseño de productos y el desarrollo de ingeniería subsiguientes. En realidad, aquí entra en juego una sencilla explicación endógena: un gran avance tecnológico suele emitir una señal clara de que se ha abierto un nuevo conjunto de oportunidades lucrativas en una ubicación bien definida. En consecuencia, se entiende que una investigación científica que propicie otras mejoras de esa nueva tecnología puede resultar muy rentable.

Los problemas experimentados por las tecnologías industriales complejas, junto con las observaciones anómalas y las dificultades inesperadas, se han convertido en poderosos estímulos para gran parte de la investigación científica fructífera desarrollada en la comunidad académica y en el laboratorio de investigación industrial. Con ello, la capacidad de respuesta de la investigación científica a las necesidades económicas y las oportunidades tecnológicas se ha visto considerablemente reforzada.

Este fenómeno quedó claramente demostrado con la llegada del transistor, cuyo descubrimiento fue anunciado por Bell Labs en el verano de 1948. Una década después de aquel suceso, la física del estado sólido, que hasta entonces había atraído la atención de un pequeño número de investigadores y que ni siquiera se enseñaba en la mayoría de las universidades americanas (principalmente el MIT, Princeton y el California Institute of Technology), se había transformado en la mayor subdisciplina de la física. Fue el desarrollo del transistor lo que cambió aquella situación al disparar la rentabilidad financiera potencial de la investigación en el campo del estado sólido. J. A. Morton, que dirigió el grupo de desarrollo fundamental creado en Bell Labs tras la invención del transistor, señaló que a finales de la década de 1940 era extremadamente difícil contratar personal con conocimientos de física del estado sólido. Además, es importante subrayar que, tanto en la comunidad universitaria como en la industria privada, la rápida movilización de recursos intelectuales para realizar investigación en el ámbito del estado sólido se dio justo después del anuncio de los trascendentales hallazgos de Shockley y su equipo de investigación en Bell Labs. Una prueba firme de esta interpretación puede encontrarse en el hecho de que el número de publicaciones sobre física de semiconductores pasara de menos de veinticinco al año antes de 1948 a más de seiscientas anuales a mediados de los cincuenta (según datos de Herring en un manuscrito sin publicar).

La cronología de los hechos que se acaban de relatar es esencial para mi argumento. La tecnología del transistor no fue la consecuencia final de una enorme acumulación anterior de recursos dedicados a la física del estado sólido, aunque no podemos negar que algunos de los físicos más creativos del siglo XX llevaban tiempo invirtiendo sus considerables energías en esta materia. Por el contrario, fue el descubrimiento inicial del transistor como componente funcional lo que puso en marcha el amplio compromiso posterior de apoyo financiero a la investigación científica. Así, las dificultades con las que Shockley tropezó en el funcionamiento de los primeros transistores de punta de contacto le empujaron a una búsqueda sistemática de una explicación más profunda del comportamiento de estos dispositivos basada en la física cuántica subyacente de los semiconductores. Esta búsqueda no solo llevó con el tiempo a desarrollar un dispositivo de amplificación muy superior, el transistor de unión, sino que contribuyó además a una comprensión mucho más honda de la ciencia de los semiconductores. De hecho, el famoso y muy influyente libro de Shockley, Electrons and Holes in Semiconductors, se inspiró en buena medida en esta investigación y fue el producto directo de un curso interno que Shockley impartió al personal de Bell Labs. Además, en junio de 1952 Shockley consideró necesario llevar a cabo en Bell Labs un curso de seis días para profesores de unas treinta universidades como parte de sus esfuerzos por promover la creación de cursos universitarios sobre la física de los transistores.

Sin duda, en este periodo crítico el flujo principal de conocimiento científico se dio de la industria a la universidad y no al revés. De hecho, durante un tiempo considerable, Stanford y la Universidad de California en Berkeley tuvieron que contratar a científicos de la industria local para que impartieran cursos sobre electrónica y física del estado sólido.

Una secuencia similar fue la que condujo a la dedicación de fondos a la investigación en química de superficies cuando algunos problemas relacionados con la fiabilidad de los primeros transistores apuntaron en esa dirección. Más recientemente, y sirva esto como síntesis de una sucesión de hechos mucho más compleja, el desarrollo de la tecnología láser sugirió la viabilidad de usar las fibras ópticas para la transmisión telefónica. Esta posibilidad señalaba de manera natural al campo de la óptica, en el que de repente cabía esperar que los avances en el conocimiento científico generasen elevados beneficios. Como resultado, la óptica como campo de investigación científica experimentó un importante resurgimiento en la década de 1960 y en los años posteriores. El cambio en las expectativas hizo que esta disciplina pasara, a la luz de las innovaciones tecnológicas que se habían producido y de las que se esperaban, de ser un tranquilo remanso científico e intelectual a convertirse en un floreciente campo de investigación. Este crecimiento de la actividad en la especialidad fue motivado no por fuerzas internas propias del campo de la óptica, sino por un cambio radical en la valoración de las oportunidades potenciales asociadas a las tecnologías basadas en el láser. Además, los distintos tipos de láseres dieron pie a diferentes categorías de investigación fundamental. Como ha señalado Harvey Brooks, «mientras que el láser de estado sólido insufló nueva vida al estudio de los aislantes y de las propiedades ópticas de los sólidos, el láser de gas resucitó la disciplina moribunda de la espectrometría atómica y la física de las descargas gaseosas» (Brooks, 1968).

Este análisis me lleva a la conclusión de que, en las condiciones industriales modernas, la tecnología ejerce una enorme influencia sobre la ciencia, ya que desempeña un papel esencial en la definición de la agenda de investigación de la ciencia y en el volumen de recursos dedicados a los distintos campos de investigación. Estas relaciones se pueden examinar de una forma mucho más minuciosa mostrando cómo, en los sectores económicos de la alta tecnología, los cambios de las necesidades tecnológicas de la industria han conllevado variaciones en las prioridades de la investigación científica. Cuando, por ejemplo, la industria de los semiconductores pasó de trabajar con circuitos discretos (transistores) a usar circuitos integrados, se produjo también una evolución en la fabricación, y los métodos mecánicos fueron reemplazados por los químicos. Cuando Fairchild Semiconductors empezó a fabricar circuitos integrados, lo hizo empleando nuevos métodos de grabado químico que imprimían los transistores en las láminas de silicio y trazaban también las pistas situadas entre ellos. Esta técnica química puso fin al costoso cableado y permitió producir circuitos integrados que funcionaban a velocidades muy superiores. A su vez, el mayor uso de los métodos químicos llevó consigo un aumento del interés por los campos correspondientes de la química, como la química de superficies.

Cito la experiencia de la transición en los métodos de diseño y fabricación de las placas de los circuitos integrados para indicar las formas en las que las necesidades y las prioridades cambiantes de la industria han sentado las bases de nuevas prioridades en el mundo de la investigación científica. Pero es esencial señalar que estas nuevas prioridades no limitaron su influencia al mundo de la investigación industrial, sino que afectaron también a las prácticas investigadoras de la comunidad universitaria. Basta con recordar que la Universidad de Stanford tiene, desde hace algún tiempo, su propio centro de sistemas integrados. Este centro se dedica a la investigación de laboratorio sobre los materiales, los dispositivos y los sistemas microelectrónicos y está cofinanciado por el gobierno federal y la industria privada.

Serendipia

Existe otra fuente más de causalidad que va de la tecnología a la ciencia y sobre la que me gustaría llamar la atención del lector. Me refiero al papel que desempeña la serendipia. Es de esperar, por supuesto, que las mentes científicas bien entrenadas tengan una alta probabilidad de tropezar con hallazgos inesperados en muchos lugares. Como Pasteur señaló a mediados del siglo XIX: «En lo tocante a la observación, el azar solo favorece a la mente preparada». Pensemos, por contra, en Thomas Edison, considerado universalmente un brillante inventor, pero con escaso interés por las observaciones sin relevancia práctica inmediata. En 1883 observó el flujo de electricidad de un filamento caliente a un conductor metálico a través de un espacio situado en el interior de un vacío. Como no vio en ello ninguna aplicación práctica y carecía de formación científica, se limitó a describir el fenómeno en un cuaderno y pasó a otras cuestiones con mayor utilidad potencial en su empeño de mejorar el rendimiento de la bombilla eléctrica. Edison estaba, obviamente, observando un flujo de electrones, y desde entonces esa observación se conoce como Efecto Edison en honor al hombre que, paradójicamente, no logró descubrirlo. Si hubiese sido un científico curioso (y paciente), menos preocupado por la utilidad a corto plazo, Edison podría haber compartido años después un Premio Nobel con Owen Richardson, que analizó el comportamiento de los electrones al calentarse en un vacío, o, por qué no, incluso con J. J. Thomson por el descubrimiento inicial del electrón. La mente preparada de Edison, sin embargo, solo lo estaba para aquellas observaciones que pudieran tener alguna relevancia práctica a corto plazo.

Un rasgo distintivo del siglo XX en las dinámicas economías capitalistas fue la gran proliferación de mentes científicamente preparadas tanto en las universidades como en la empresa privada. La búsqueda de las posibles implicaciones de las observaciones inesperadas se convirtió en muchos casos en la base de avances fundamentales que se produjeron accidentalmente cuando hubo mentes preparadas disponibles para explorar esas posibles implicaciones de lo inesperado. Sin duda, el ejemplo más espectacular de serendipia del siglo XX, que no tuvo lugar en un laboratorio industrial, fue la brillante conjetura formulada en 1928 por Alexander Fleming, que concluyó que el inesperado efecto bactericida que había observado en los cultivos bacterianos de su placa de Petri estaba causado por un moho del pan común que se había acumulado en los portaobjetos. Fleming publicó su descubrimiento en 1929, pero tendría que pasar más de una década para que se dieran avances sustanciales que permitieran elaborar un producto comercializable, algo que solo ocurrió cuando las exigencias de la guerra llevaron a un programa intensivo angloamericano para acelerar la producción del antibiótico (Elder, 1970).

No es disparatado especular que, si Fleming hubiera trabajado en un laboratorio farmacéutico cuando hizo su maravilloso descubrimiento, la penicilina habría estado disponible en grandes cantidades con mucha más rapidez (para conocer un punto de vista contrario a esta idea, véase Bernal, volumen 3, pp. 926-927]. En el contexto de este artículo, es interesante poner de relieve un hecho histórico poco conocido: que la tecnología empleada para la producción del antibiótico en grandes cantidades no fue desarrollada, como habría sido esperable, por un químico farmacéutico, sino por ingenieros químicos. Fueron los ingenieros químicos los que demostraron que una técnica denominada fermentación aeróbica sumergida, que terminó siendo la tecnología de elaboración dominante, se podía aplicar a este complejo producto (Elder, 1970).

El crecimiento de los laboratorios industriales organizados en Estados Unidos a lo largo del siglo XX multiplicó el número de científicos con formación integrados en el mundo industrial que descubrieron fenómenos extraños que difícilmente se habrían producido u observado fuera de un contexto industrial muy especializado. En este sentido, la gran proliferación de nuevos productos de alta tecnología y las densas concentraciones de científicos especializados con un elevado nivel de formación en la industria aumentaron exponencialmente la probabilidad de que se produjeran descubrimientos accidentales a lo largo del siglo XX.

Consideremos el ámbito de las transmisiones telefónicas. A finales de la década de 1920, cuando los servicios de radioteléfono transatlánticos se establecieron por primera vez, se descubrió que el sistema era deficiente a causa de las interferencias provocadas por el elevado nivel de electricidad estática. Bell Labs pidió a un joven, Karl Jansky, que determinara cuál era la fuente del ruido con el objeto de reducirlo o eliminarlo. Se le suministró una antena giratoria para que trabajara con ella. En 1932 Jansky publicó un artículo en el que explicaba que había encontrado tres fuentes de ruido: las tormentas eléctricas locales, otras tormentas eléctricas más distantes y una tercera fuente que describía como «un silbido estático constante cuyo origen se desconoce». Fue este ruido estelar, como Jansky lo denominó, el que marcó el nacimiento de una ciencia totalmente nueva: la radioastronomía.

La experiencia de Jansky pone de manifiesto las razones por las que los frecuentes intentos de diferenciar la investigación básica y la aplicada son poco viables en la práctica. Los avances científicos fundamentales se producen a menudo cuando se trabaja en problemas prácticos y aplicados, sobre todo en los relacionados con el rendimiento de las nuevas tecnologías en un contexto industrial.

Pero hay otro aspecto en el que la diferenciación falla. Es esencial distinguir entre las motivaciones personales de los investigadores y las de los responsables de la toma de decisiones de la empresa para la que los primeros trabajan. Muchos científicos de la industria privada podrían afirmar con sinceridad que están intentando ampliar las fronteras del conocimiento científico básico sin que les mueva interés alguno por las posibles aplicaciones. Al mismo tiempo, la motivación de los gestores de la investigación, que deciden financiar o no la investigación en un campo básico de la ciencia, puede tener una fuerte dependencia de las expectativas de que con el tiempo se produzcan hallazgos útiles.

Al parecer, este fue el caso cuando, a principios de los años sesenta, Bell Labs decidió apoyar la investigación en el campo de la astrofísica por su relación potencial con todos los problemas y las posibilidades existentes en el ámbito de la transmisión por microondas y especialmente en el uso de los satélites de comunicaciones con esos fines. Ya se tenía la certeza de que a frecuencias muy elevadas se encontraban en muchos casos fuentes molestas de interferencias en las transmisiones.

Esta fuente de pérdida de señal era un motivo permanente de preocupación en el desarrollo de la nueva tecnología de las comunicaciones por satélite que se estaba llevando a cabo en Bell Labs. Y fueron esas preocupaciones prácticas las que movieron a Bell Labs a contratar a dos astrofísicos, Arno Penzias y Robert Wilson. Sin duda, Penzias y Wilson se habrían indignado si cualquiera hubiera insinuado que lo que hacían no era investigación básica. Observaron la radiación cósmica de fondo —considerada hoy en día una confirmación de la teoría del Big Bang sobre la formación del universo— por primera vez mientras trataban de identificar y medir las distintas fuentes del ruido que se detectaba en la antena y en la atmósfera. Es justo afirmar que este avance primordial de la cosmología del pasado siglo fue fruto de la serendipia. Aunque Penzias y Wilson no lo sabían entonces, la radiación de fondo que ellos descubrieron no era sino lo que los cosmólogos de Princeton que formularon la teoría del Big Bang habían postulado anteriormente. Penzias y Wilson compartieron un Premio Nobel de física por este descubrimiento. Sus hallazgos se encuadran en la faceta más básica de la ciencia, y saber que la firma que los contrató lo hizo porque los responsables de la toma de decisiones de Bell Labs esperaban mejorar la calidad de la transmisión por satélite no les resta ni un ápice de su importancia.

El paralelismo entre los descubrimientos fundamentales de Jansky por una parte y de Penzias y Wilson por otra es por supuesto muy llamativo. En ambos episodios, los investigadores de Bell Labs se tropezaron con hallazgos de la máxima relevancia científica mientras participaban en proyectos motivados por el deseo de los laboratorios de mejorar la calidad de la transmisión telefónica. En el caso de Penzias y Wilson, la investigación se realizaba con una antena de cuerno excepcionalmente sensible que se había construido para los proyectos de satélites Echo y Telstar. Wilson recordaría más tarde que al principio se sintió atraído por el trabajo en Bell Labs porque iba a proporcionarle acceso a una antena de cuerno que era una de las más sensibles de su clase (Aaronson, 1979).

Hemos recordado dos episodios relacionados con Bell Labs en los que unos investigadores industriales descubrieron fenómenos naturales de enorme importancia científica mientras trabajaban para una compañía que los había contratado con la esperanza de que resolvieran problemas graves relativos al rendimiento de una nueva tecnología de comunicaciones. En cierto sentido, es correcto afirmar que algunos descubrimientos científicos importantes realizados en el seno de empresas con ánimo de lucro se producen de manera involuntaria: descubren cosas que no estaban buscando, que es exactamente lo que significa en su acepción más general la serendipia, el neologismo que Horace Walpole acuñó a mediados del siglo XVIII. Por otra parte, estos grandes avances realizados en el sector privado son difíciles de comprender si se insiste en establecer distinciones rígidas entre la investigación básica y la aplicada tomando como punto de partida las motivaciones de quienes la llevan a cabo. No puedo resistirme a invocar, una vez más, el recuerdo del gran Pasteur: «No existe eso que se ha dado en llamar ciencias aplicadas, solo hay aplicaciones de la ciencia».

Yo, de hecho, iría mucho más lejos: cuando la investigación básica realizada en la industria se aísla de las otras actividades de una empresa, ya sea en los aspectos organizativos o geográficos, tiene muchas probabilidades de terminar siendo estéril e improductiva. Buena parte de la historia de la investigación básica realizada en la industria norteamericana sugiere que suele ser más eficaz cuando presenta un alto grado de interacción con el trabajo y las inquietudes de los ingenieros y científicos aplicados de la firma. Esto se debe al hecho de que las industrias del sector de la alta tecnología ponen continuamente de manifiesto problemas, dificultades y observaciones anómalas que muy difícilmente se habrían dado fuera de determinados contextos de la alta tecnología.

El simple aumento del número de científicos cualificados en los laboratorios industriales, junto con la introducción de nuevos productos especializados de gran complejidad aparecidos a lo largo del siglo XX, ha multiplicado exponencialmente la probabilidad de los hallazgos accidentales. Las industrias de alta tecnología se encuentran en una posición estratégica única para el desarrollo de la investigación básica, pero para que los científicos saquen provecho del potencial del entorno industrial es necesario crear oportunidades e incentivos para la interacción con otros componentes de la firma. Bell Labs, antes de la división organizativa a la que se sometió en 1984 por imposición legal, era probablemente el mejor ejemplo de un lugar cuyo entorno empresarial resultó ser un campo de cultivo idóneo para la investigación básica. No pretendo sugerir que Bell Labs fuese, en ningún aspecto, un laboratorio industrial representativo. Nada más lejos de la verdad. Era un monopolio regulado que podía recuperar con rapidez las enormes inversiones que realizaba en investigación. Pero, y esto es probablemente más importante, vino a ocupar en el espectro industrial un hueco en el que, como se demostró con el tiempo, las mejoras tecnológicas requerían una exploración científica más profunda de ciertas porciones del mundo natural que no se habían estudiado antes.

Instrumentación

Sin duda, mi examen de la naturaleza endógena de la ciencia no ha sido sino un esbozo enormemente modesto y parcial. En él se han dejado de lado categorías completas de la influencia de la tecnología sobre la ciencia, como el gran impacto de la nueva instrumentación, es decir, de las tecnologías de observación, experimentación y medición. De hecho, resulta útil considerar los instrumentos científicos como los bienes capitales de la industria de la investigación. Muchos de estos instrumentos, por su parte, tuvieron sus orígenes en el mundo universitario y, para subrayar el alcance de las interconexiones entre la tecnología y la ciencia en los últimos años, algunos de los más eficaces, como la resonancia magnética nuclear, nacieron de una investigación fundamental que se llevó a cabo inicialmente con el fin de adquirir ciertos conocimientos específicos, como una comprensión más profunda de las propiedades magnéticas de los núcleos atómicos. De hecho, Felix Bloch recibió el primer Premio Nobel de Física para Stanford precisamente por esta investigación (Rosenberg, 1997 y, en el mismo volumen, Kruytbosch, 1997). La espectroscopía por resonancia magnética nuclear, por su parte, se convirtió en una herramienta de incalculable valor en la química para determinar la estructura de ciertas moléculas, como las constituidas por átomos de hidrógeno, deuterio, boro y nitrógeno (Kruytbosch, 1997: 32-34).

Indudablemente, la instrumentación y las técnicas han pasado de unas disciplinas científicas a otras con importantes consecuencias para el progreso de la ciencia. De hecho, se podría argumentar que generalmente no es posible alcanzar un conocimiento serio del progreso de cada disciplina si no se realiza un examen de la influencia mutua entre las distintas áreas de la ciencia. Esta comprensión suele ir directamente unida al desarrollo, a la secuencia temporal y al modo de transferencia de los instrumentos científicos entre las disciplinas. El flujo de exportaciones parece haber sido especialmente intenso de la física a la química y también de la física y la química a la biología, a la medicina clínica y, por último, a la atención sanitaria. También se ha producido un flujo algo menos sustancial de la química a la física y, en los últimos años, de la física aplicada y la ingeniería eléctrica a la atención sanitaria. La RMN ha terminado por convertirse en la base de una de las herramientas diagnósticas más eficaces de la medicina del siglo XX (y del XXI): la obtención de imágenes por resonancia magnética.

La revolución del transistor fue un resultado directo del crecimiento de la física del estado sólido, pero para que esa revolución culminara fueron imprescindibles otros avances de la química y la metalurgia que proporcionaron materiales con un grado de pureza y cristalinidad suficientemente alto. La física, por último, ha generado subespecialidades que son por naturaleza interdisciplinares, como la biofísica, la astrofísica y la ciencia de los materiales.

Hay un elemento más, sin embargo, implícito en lo que ya se ha dicho. La disponibilidad de técnicas experimentales o instrumentos nuevos o mejorados en una disciplina académica ha sido en muchos casos una fuente de colaboración interdisciplinar. En algunos ejemplos cruciales, ha conllevado la migración de científicos con un alto nivel de cualificación de un campo a otro, como los físicos del Cavendish Laboratory (Universidad de Cambridge) que desempeñaron un papel decisivo en el nacimiento de la biología molecular. Este nacimiento estuvo estrechamente vinculado a un grupo de científicos que habían adquirido conocimientos de física en Cavendish y que transfirieron una herramienta indispensable, la cristalografía por rayos X, a un ámbito tan distinto como el de la biología. La biología molecular fue un producto de la investigación interdisciplinar en el sentido de que algunos científicos formados en una disciplina cruzaron las fronteras científicas tradicionales y pusieron las herramientas intelectuales, los conceptos y los métodos experimentales de su especialidad al servicio de un campo totalmente distinto —véase el magistral y muy accesible volumen sobre la historia de los primeros tiempos de la biología molecular escrito por Horace Judson (Judson, 1979).

El físico alemán Max von Laue descubrió en 1912 el fenómeno de la difracción de los rayos X. Durante los primeros años, sus aplicaciones fueron empleadas por William Bragg y su hijo, Lawrence Bragg, principalmente en el nuevo campo de la física del estado sólido, pero también, algo más tarde, en el desarrollo de la biología molecular. La metodología de la difracción de rayos X tuvo como centro principal, durante muchos años, el Laboratorio Cavendish, presidido por Lawrence Bragg. Numerosos científicos iban allí para aprender a utilizar esta técnica. Entre ellos Max Perutz, entonces químico, James Watson, Francis Crick o John Kendrew, todos ellos galardonados años después con premios Nobel de fisiología y medicina. La transferencia de los conocimientos sobre la difracción de rayos X se vio impulsada por un paso poco común: el establecimiento de un Consejo de Investigación Médica, encabezado por Perutz aunque bajo la dirección general del físico Lawrence Bragg (Crick 1988: 23). Tiempo después, James Watson narraría el evidente deleite de Bragg «(…) por el hecho de que el método de rayos X que había desarrollado cuarenta años antes estuviera en el eje de un estudio profundo de la naturaleza de la propia vida» (Watson, 1968: 220). Deducir la estructura tridimensional de proteínas con moléculas muy grandes utilizando la nueva técnica de la cristalografía por rayos X, que solo ofrecía fotografías bidimensionales de moléculas muy complejas, parece haber sido un empeño endiabladamente difícil, pero cimentó en buena medida la nueva disciplina de la biología molecular. Rosalind Franklin, que lamentablemente falleció muy joven, está considerada en general como la mayor especialista en la cristalografía por rayos X.

Por otra parte, es importante observar que dos comunidades independientes —la de los científicos universitarios (incluidos los especialistas clínicos de las facultades de medicina) y la de los fabricantes de instrumentos comerciales— interaccionaron entre ellas y se influyeron de maneras realmente simbióticas. Precisamente porque estas dos comunidades respondían a consignas muy distintas, cada una fue en última instancia responsable de algunas mejoras innovadoras que la otra no podría haber alcanzado si hubiera actuado sola (Gelijns y Rosenberg, 1999). Es obligado añadir que las aplicaciones de la investigación en el campo de la física siempre han atravesado las fronteras disciplinares con más rapidez en la industria que en el mundo académico. Las empresas con ánimo de lucro no sienten especial interés por la ubicación atribuida a esas fronteras en el mundo académico; normalmente buscan soluciones a diversos problemas con independencia del lugar en el que esas soluciones puedan encontrarse (National Research Council, 1986).

Así pues, el ámbito tecnológico no solo ha desempeñado un papel fundamental en la definición de la agenda de investigación de la ciencia, como ya se ha señalado. La tecnología ha proporcionado además herramientas de investigación nuevas y mucho más eficaces que las que existían en los siglos anteriores. Basta con citar el uso de la microscopía electrónica en el estudio del microuniverso, el telescopio Hubble en el estudio del macrouniverso y el láser, que se ha convertido en el instrumento de investigación más eficaz en el campo de las ciencias químicas. Además, el láser ha encontrado innumerables aplicaciones en la atención sanitaria.

Por último, puesto que este artículo se escribió a un tiro de piedra del acelerador lineal de Stanford (SLAC), parece oportuno terminar con la siguiente observación: en el ámbito de la física moderna, la velocidad del progreso científico parece haber estado determinada, en buena medida, por la disponibilidad de mejoras de las tecnologías experimentales. En la sucinta formulación de Wolfgang Panofsky, el primer director del SLAC: «El ritmo de la física viene generalmente marcado por la tecnología y no por las leyes físicas. Se diría que siempre tenemos más preguntas que instrumentos para contestarlas». Y así es.

Bibliografía

Aaronson, S. (1979), «The Light of Creation – an Interview with Arno A. Penzias and Robert C. Wilson», Bell Laboratories Record, enero, p. 13.

Brooks, H. (1968), «Physics and the Polity», Science 160.

Crick, F. (1988), What Mad Pursuit, Londres: Penguin. Existe versión española (1989), Qué loco propósito, Barcelona: Tusquets Editores.

Elder, A. L. (ed.) (1970),The History of Penicillin Production, Nueva York: American Institute of Chemical Engineers.

Gelijns, A., y N. Rosenberg (1999), «Diagnostic Devices: An Analysis of Comparative Advantages», en D. Mowery y R. Nelson (eds.), Sources of Industrial Leadership, Cambridge: Cambridge University Press.

Judson, H. (1979), The Eighth Day of Creation, New York: Simon and Schuster. Existe version española (1987), El octavo día de la creación, México DF: CONACYT.

Kruytbosch, C. (1997), «The Role of Instrumentation in Advancing the Frontiers of Science», en John Irvine et al., Equipping Science for the 21st Century, Cheltenham: Edward Elgar.

Mowery, D., y N. Rosenberg (1998), Paths of Innovation: Technological Change in 20th Century America, Cambridge: Cambridge University Press.

Rosenberg, N. (1997), «The Economic Impact of Scientific Instrumentation Developed in Academic Laboratories», en John Irvine et al., Equipping Science for the 21st Century, Cheltenham: Edward Elgar.

Rosenberg, N. (1998), «Technological Change in Chemicals: The Role of University-Industry Relations», en A. Arora, R. Landau y N. Rosenberg (eds.), Chemicals and Long-term Economic Growth, Nueva York: Wiley.

Rosenberg, N. (1990),«Why do firms do Basic Research?», Research Policy 19(2), pp. 165-174.

Rosenberg, N. (2002), «America’s University/Industry Interfaces, 1945-2000».

Watson, J. (1968), The Double Helix, Nueva York: Simon Schuster.

Citar esta publicación

Publicaciones relacionadas

Descargar Kindle

(34,9 KB)

Descargar EPUB

(19,4 KB)

Descargar PDF

(111,9 KB)
Ver libro 2011 Innovación. Perspectivas para el siglo XXI
Escuchando
Mute
Cerrar

Comentarios sobre esta publicación

Escribe un comentario aquí…* (Máximo de 500 palabras)
El comentario no puede estar vacío
*Tu comentario será revisado antes de ser publicado
La comprobación captcha debe estar aprobada