Elaborado por Materia para OpenMind Recomendado por Materia
24
Inicio Innovaciones radicales: la visión de un economista
Artículo del libro Fronteras del conocimiento

Innovaciones radicales: la visión de un economista

Tiempo estimado de lectura Tiempo 24 de lectura

¿Por qué no existe una economía de la ciencia?

Me gustaría empezar con una pregunta: ¿por qué no existe todavía una disciplina reconocida llamada «economía de la ciencia»? Después de todo, la economía como disciplina ha mostrado fuertes tendencias imperialistas en las últimas décadas. Ha colonizado con éxito numerosos ámbitos, pero la economía sigue siendo una excepción. Tenemos una economía de la educación, una economía de la salud, una economía de los hábitos electorales, una economía del divorcio y una de la delincuencia. Respecto a esta última, la economía de la delincuencia, ¡resulta que delinquir es rentable, especialmente cuando, como ocurre a menudo, las probabilidades de ser detenido y castigado son escasas! Como indicación de la elevada categoría de esta clase de investigaciones uno de sus representantes más distinguidos (Gary Becker), recibió el Premio Nobel de Economía.

¿Por qué razón entonces no tenemos una economía de la ciencia o, mejor dicho, puesto que se trata de un fenómeno reciente, por qué ha tardado tanto en aparecer? Esta pregunta resulta especialmente pertinente a la vista de lo que durante mucho tiempo hemos sabido sobre la ciencia. Es decir, que la investigación científica general rinde gigantescos beneficios económicos es, desde hace tiempo, poco menos que un artículo de fe.

Al menos existe una respuesta parcial a la pregunta de por qué ha tardado tanto en surgir una economía de la ciencia: la economía es una disciplina que estudia los principios implicados en la adquisición de un uso eficiente de unos recursos escasos. Pero hablar de eficiencia en el empleo de recursos requiere la capacidad de realizar alguna clase de comparación explícita entre costes y beneficios. Veamos, en realidad sabemos mucho acerca de aceleradores lineales, máquinas de radiaciones de sincrotrón, telescopios espaciales Hubble, la cartografía del genoma humano, etcétera. De hecho hace algunos años el Congreso de Estados Unidos decidió cancelar la construcción de un acelerador de partículas llamado Supercolisionador Superconductor cuando los costes del mismo ascendieron de 11.000 a 12.000 millones de dólares (de hecho, sólo el proyecto costó más de mil millones).

Pero, aunque resulta relativamente sencillo calcular los costes de la investigación científica, resulta extraordinariamente difícil estimar sus beneficios. Y si insistimos en considerar sólo los beneficios estrictamente económicos entonces sería complicado defender algunos de los proyectos de la llamada Ciencia con mayúsculas (¿Qué beneficios económicos tiene, por ejemplo, el telescopio espacial Hubble?).

Ahora bien, es innegable que la historia de la investigación científica en el siglo xx ha generado una gran cantidad de beneficios inesperados. Pero la noción generalizada de que las probabilidades de obtener beneficios inesperados son limitadas a duras penas puede servir de guía para determinar la inversión pública en ciencia, o la asignación de un presupuesto fijo a un campo concreto de investigación científica de entre los muchos posibles. En pocas palabras, las incertidumbres asociadas a los posibles beneficios de la investigación científica son sencillamente inmensas, y resulta difícil llevar a cabo una aplicación rigurosa de principios económicos en un ámbito donde los réditos de la utilización de recursos son, en esencia, inconmensurables.

De lo dicho hasta ahora se infiere que, para que sea posible pensar de forma práctica sobre la ciencia y la tecnología en la sociedad moderna es necesario reconocer que debemos, inevitablemente, convivir con un cierto grado de incertidumbre. No obstante quisiera insistir en que esta necesidad no va en detrimento de la utilidad del análisis económico, al menos mientras no alimentemos expectativas descabelladas acerca de lo que puede lograrse sólo mediante el razonamiento abstracto. Porque el análisis económico por sí solo no puede proporcionar una solución pulcramente empaquetada a la adopción de medidas relativas a los asuntos extremadamente complejos que nos atañen. Y tampoco deberíamos esperar que lo haga. Pero sí puede convertirse en una valiosa herramienta a la hora de buscar relaciones causa-efecto, de intentar comprender la manera en que las instituciones y los incentivos moldean el comportamiento humano y a la hora de encontrar sentido a un corpus formidable de datos empíricos e históricos que están al alcance de los verdaderos estudiosos, y del que pueden derivarse importantes enseñanzas para diseñar políticas y crear instituciones.

Cambios institucionales en el siglo xxi

Si repasamos los últimos cien años y nos preguntamos cuáles han sido los rasgos distintivos que han dominado el ámbito de la actividad económica mi respuesta inmediata sería que el principal fue la aplicación del conocimiento y la metodología científicas a un círculo cada vez más amplio de actividades productivas. Pero esta afirmación en sí misma no resulta demasiado informativa. De hecho, sólo puede servir de plataforma a partir de la cual plantear otras cuestiones de mayor calado: ¿exactamente de qué modo ha desempeñado la ciencia este papel?,

¿Qué aspectos de la práctica científica han desempeñado dicho papel y en qué circunstancias? y ¿cuáles fueron los cambios en la manera de institucionalizar la práctica científica en el siglo xx que la hicieron tan diferente del siglo xix?

Un factor dominante, por supuesto, fue que en los años posteriores a la Segunda Guerra Mundial los gobiernos de los países industrializados se convirtieron, en mayor o menor medida, en patrocinadores de la investigación científica, sobre todo de la investigación básica. Esto reflejaba en grado considerable el papel crítico que la ciencia, y los científicos, habían desempeñado en el curso y en el desenlace de la guerra y que culminó en el desarrollo a manos del Proyecto Manhattan de la terrible arma que puso abrupto fin a la guerra en el Pacífico. La Guerra Fría contribuyó a cimentar, de forma más poderosa aún, las contribuciones económicas a gran escala a la ciencia en un grado sin precedentes hasta el momento. Pero también estaban activas otras fuerzas, más silenciosas pero igualmente poderosas.

Quizá venga al caso recordar aquí la tantas veces citada observación de Alfred North Whitehead de que «la gran invención del siglo xix fue la de inventar una nueva forma de inventar» (Whitehead 1925). El siglo xx por supuesto no sólo heredó, sino que también institucionalizó, ese nuevo método de inventar. Whitehead comprendió que esta manera de inventar pasaba por relacionar el conocimiento científico con el mundo de los artefactos. Pero también comprendió que esta relación no era sencilla de establecer, porque entre un descubrimiento científico y la aparición de un nuevo producto o proceso media por lo general un gran trecho. Aunque esta frase que acabo de citar del libro de Whitehead es muy conocida, la que la sigue no lo es tanto, aunque merecería serlo: «Es un gran error pensar que la idea científica por sí sola constituye el invento, y que sólo resta tomar éste y ponerlo en práctica. Antes de que eso suceda es necesario un intenso periodo de diseño imaginativo. Uno de los elementos de una nueva metodología es descubrir cómo salvar la distancia entre las ideas científicas y el producto final. Es un proceso que implica la superación sistemática de una dificultad tras otra».

Lo que parece importar más que la calidad de la ciencia de un país, tal y como se juzga en los círculos académicos o en los criterios del comité de los Premios Nobel, es el grado hasta el cual las actividades de la comunidad científica de dicho país responden a las necesidades de la sociedad en general. Es de lamentar que sea ésta una cuestión rara vez debatida, y menos aún comprendida. A menudo se ve oscurecida por la retórica de la ciencia académica con su énfasis abrumador en el científico individual. El quid de la cuestión es que, a lo largo del siglo xx y con diferentes grados de éxito, las sociedades industriales han creado redes cada vez más densas de conexiones institucionales entre el curso de la investigación científica y las necesidades de un sistema social cada vez más grande.

Dentro del mundo universitario esto incluye un número de disciplinas surgidas a finales del siglo xix y en el xx, tales como la ingeniería eléctrica, la ingeniería química, la aeronáutica, las ciencias metalúrgicas y la informática. De hecho, aunque no parece haber conciencia generalizada de ello, en los últimos años las inversiones gubernamentales en I+D para las universidades norteamericanas dedicadas a las ingenierías han excedido a las dedicadas a las ciencias físicas. Con mucho, los principales beneficiarios en los últimos años han sido las ciencias biológicas, que han recibido más del 50% del apoyo federal.

Además de la aparición de nuevas disciplinas, la innovación tecnológica clave del siglo xx fue, por supuesto, el laboratorio de investigación industrial. Estos laboratorios supervisaban la investigación de frontera dentro y fuera de la comunidad universitaria, aunque durante muchos años lo que dominó sus contribuciones a la industria fue la aplicación de conceptos y metodologías científicas relativamente elementales. En el transcurso del siglo xx sin embargo, y en especial a partir de la Segunda Guerra Mundial, la investigación en muchos de estos laboratorios fue ganando en complejidad. En 1992 el Directory of American Research and Technology contabilizó alrededor de 12.000 centros no gubernamentales activos dedicados a algún tipo de investigación científica «de utilidad comercial». Y, de acuerdo con las cifras publicadas por la National Science Foundation, más del 30% de la investigación básica en Estados Unidos estuvo financiada por la industria privada.

El laboratorio de investigación industrial es esencialmente una innovación institucional en la que la agenda de investigación científica está determinada en gran medida por las tecnologías industriales. La misión de los científicos industriales es mejorar el rendimiento y la fiabilidad de dichas tecnologías, además de, evidentemente, inventar otras nuevas. Así, el laboratorio de investigación industrial ha ido convirtiendo la ciencia en una institución cuyas metas están determinadas cada vez más por las fuerzas económicas y que cada vez está más centrada en la consecución de objetivos económicos. En el último siglo, la ciencia se ha ido incorporando gradualmente al sistema de crecimiento que ha impulsado a las sociedades industriales al progreso.

Ese sistema de crecimiento, en el cual el cambio tecnológico desempeñó un papel central a lo largo de dos siglos, se ve hoy reforzado por una intensa labor investigadora de fuertes componentes públicos y privados que varían según los países en función de su historia, su cultura, sus modelos políticos y sus prioridades sociales (para más detalles, véase el informe de las Naciones Unidas «Industrial Development Organization, Industrial Development Report 2005, Capability building for catching-up, Historical, empirical and policy dimensions», Viena, 2005).

Además de los requisitos institucionales, la explotación satisfactoria del conocimiento científico ha florecido más en aquellos países industrializados que han ofrecido a los innovadores potenciales acceso directo al capital así como incentivos financieros sustanciosos, y han promovido y formado infraestructuras empresariales y de ingeniería adecuadas. Así, la Rusia zarista del siglo xix alumbró numerosos y brillantes científicos e innovadores, pero su presencia tuvo un impacto apenas perceptible en una sociedad que carecía de una infraestructura empresarial, financiera y de ingeniería adecuada. Por otra parte, la ascensión de Estados Unidos a una posición de liderazgo tecnológico en una serie de sectores industriales antes de la Primera Guerra Mundial se produjo en un periodo en el que sus logros en la ciencia en general eran limitados y, con pocas excepciones, sin gran relevancia internacional. En este sentido el Estados Unidos de finales del siglo xix y principios del xx presenta interesantes similitudes con el Japón de la segunda mitad del siglo xx. Ambos países adquirieron un crecimiento industrial rápido con una base científica modesta gracias a su gran capacidad para importar y explotar tecnologías extranjeras.

Por otra parte, el relativo estancamiento de la economía británica en el último siglo se ha producido a pesar de sus brillantes y continuadas actuaciones en la vanguardia científica. Hasta hace no mucho tiempo la comunidad científica británica seguía recibiendo más premios nobeles per cápita que la de Estados Unidos. Pero, al mismo tiempo, los británicos no fueron capaces de ser competitivos ni siquiera en innovaciones originadas en Gran Bretaña, como el radar, el motor de reacción, la penicilina o la resonancia magnética. Es más, la revolución en el campo de la biología molecular que empezó con el descubrimiento de la estructura de la doble hélice de la molécula del ADN en la década de 1950 fue, en gran medida, un logro británico, concretamente de la Universidad de Cambridge, y sin embargo el papel de las compañías británicas en la emergente industria de la biotecnológica fue secundario, comparado con los varios cientos de empresas de biotecnología que se crearon en Estados Unidos, incluidas aquellas pocas que no tardaron en gozar de cierto éxito comercial.

De todo ello quisiera extraer dos conclusiones. Al repasar el siglo xx, los logros científicos por sí solos, por brillantes que hayan sido, no se tradujeron de forma inmediata en un rendimiento económico mayor. Para ello fueron necesarios unos incentivos y un apoyo institucional fuerte, el más importante de los cuales fueron probablemente las sociedades de capital-riesgo. Y es más, allí donde dichas instituciones e incentivos han estado presentes, incluso una capacidad científica comparativamente modesta ha bastado para generar altos niveles de rendimiento económico.

La ciencia endógena

Ya he mencionado que los cambios institucionales del siglo xx han convertido la ciencia en una actividad más endógena, en el sentido de que allí donde se han producido innovaciones tecnológicas, la ciencia ha reaccionado de manera más directa a las fuerzas económicas. Ahora, sin embargo, debo extenderme un poco más en un aspecto concreto de esta afirmación. Lo que pretendo sugerir es que la agenda de investigación de la ciencia ha estado cada vez más condicionada por la necesidad de mejorar la competencia de las tecnologías ya existentes. Durante el siglo xx la ciencia y la tecnología han pasado a estar estrechamente relacionadas. La ciencia se ha convertido en una influencia cada vez mayor en el mundo de la tecnología, pero la causalidad ha sido mutua: la empresa científica del siglo xx también necesita ser explicada en términos de sus respuestas a las necesidades y las exigencias de la tecnología.

De hecho, un asunto que ha sido ignorado por la ciencia del pasado siglo es que el progreso en el ámbito tecnológico ha pasado a desempeñar un papel clave en la formulación de una agenda de investigación científica. La trayectoria natural de determinadas mejoras tecnológicas ha servido para identificar y definir los límites de futuras mejoras, lo que a su vez ha servido para hacer lo propio con la investigación científica.

Pensemos por ejemplo en la industria aeronáutica. En ella, las mejoras tecnológicas han hecho posible que el avión alcance niveles de rendimiento cada vez mayores y que sólo puedan analizarse con una mayor comprensión de las leyes de la física. Como resultado de ello, la aparición del turborreactor tuvo un profundo impacto tanto en la ciencia como en la industria aeronáutica, al extender progresivamente los límites de las fronteras científicas y al identificar las direcciones específicas en las que este nuevo conocimiento debía seguir antes de que pudieran llevarse a cabo las mejoras tecnológicas.

Así, el turborreactor hizo posible en primera instancia la creación de una nueva especialidad, la aerodinámica supersónica que, según un experto en la materia «pronto cedió el paso a la aerotermodinámica conforme turborreactores cada vez más potentes llevaban a los aviones a reacción a velocidades a las cuales la generación de calor en la superficie del avión pasaba a ser un factor esencial en el comportamiento del flujo de aire. Con el tiempo, un avión propulsado por turborreactor pudo alcanzar velocidades a las cuales las consideraciones magneto-termodinámicas cobrarían una importancia capital. [Es decir], las temperaturas se elevaron tanto que el aire se disociaba en iones submoleculares» (Constant 1990). Así, el aumento de la velocidad que los motores a reacción hicieron posible también requería expandir las fronteras del conocimiento científico para poder adaptarse a los requisitos de diseño del nuevo avión.

Lo que sugiero es que uno de los rasgos centrales de las industrias de alta tecnología es que este tipo de secuencia ha pasado a ser la dominante. Es decir, que el progreso tecnológico sirve para identificar, de formas razonablemente precisas, las direcciones en las que la investigación científica debe orientarse y, al mismo tiempo, hace prever potenciales beneficios económicos en caso de que la investigación tuviera éxito.

Los mecanismos que operan aquí pueden adoptar gran cantidad de formas. En el caso del motor a reacción que pasó a funcionar a velocidades cada vez mayores, la tecnología apuntaba a un fenómeno natural específico en un entorno determinado. En la industria del teléfono, por el contrario, la transmisión entre largas distancias o la introducción de nuevas modalidades de transmisión han resultado ser mecanismos especialmente valiosos a la hora de generar investigación básica. Por ejemplo, para mejorar la transmisión transoceánica por radioteléfono era esencial desarrollar un conocimiento mayor de las formas en que las radiaciones electromagnéticas interactúan con las cambiantes condiciones atmosféricas. De hecho, algunos de los proyectos de investigación científica más importantes del siglo xx fueron consecuencia directa de los intentos por mejorar la calidad de la transmisión del sonido por teléfono. Estudiar los distintos tipos de interferencias, distorsiones o atenuación de las señales electromagnéticas que transmiten sonido ha aumentado significativamente nuestra comprensión del Universo.

Dos avances científicos fundamentales, uno debido a Karl Jansky a finales de la década de 1920 y otro más reciente, de Penzias y Wilson, fueron el resultado de los intentos por mejorar la calidad de la transmisión telefónica, en concreto por buscar las fuentes de ruido. Jansky recibió el encargo de trabajar en los problemas del ruido estático tras la instalación del primer servicio de radioteléfono transoceánico. Para ello debía ayudarse de antenas de radio rotatorias. En 1932 publicó un artículo identificando tres fuentes de ruido: el procedente de tormentas cercanas, un segundo de tormentas más distantes y una tercera fuente, que el llamó «un siseo constante de origen desconocido». Este «ruido estelar», como se llamó en un principio, marcó el nacimiento de una nueva ciencia: la radioastronomía, una disciplina que se convertiría en una de las grandes fuentes de progreso científico del siglo xx.

La experiencia de Jansky viene a resaltar una de las razones por las que los intentos de distinguir entre investigación científica básica y aplicada son extremadamente difíciles de respetar de manera consistente. Los avances fundamentales a menudo se producen tratando de solucionar problemas de índole práctica. Tratar de dibujar una línea de separación basada en las motivaciones de la persona que realiza la investigación —ya sea adquirir información útil (y por tanto aplicada) o bien una búsqueda totalmente desinteresada de nuevos conocimientos (investigación básica)— es a mi juicio una empresa inútil. Cualesquiera que sean las intenciones a priori a la hora de emprender una investigación, el tipo de conocimiento que se resultará de ésta es altamente impredecible. Tal es la naturaleza de la investigación científica más seria. Históricamente algunos de los más importantes avances científicos han procedido de personas, por ejemplo Jansky, que actuaban convencidas de estar haciendo investigación aplicada.

El gran avance de los laboratorios Bell en astrofísica también estuvo directamente relacionado con los intentos por mejorar las transmisiones telefónicas, y en especial en el uso de los satélites de comunicación para dicho fin. En frecuencias muy altas la lluvia y otras condiciones atmosféricas se convierten en importantes fuentes de interferencia. Esta fuente de pérdida de señal era una preocupación constante en el desarrollo de la comunicación por satélite y propició numerosas investigaciones tanto en los campos de la ciencia básica como la tecnológica, por ejemplo, el estudio de los fenómenos de polarización (Dinn 1997).

Arno Penzias y Robert Wilson observaron por primera vez la radiación cósmica de fondo, hoy considerada confirmación de la teoría del Big Bang de la formación del universo, en 1964, mientras trataban de identificar y medir las distintas fuentes de ruido en su sistema receptor y en la atmósfera. Encontraron que «la radiación está distribuida de forma isotrópica en el espacio y que su espectro es aquel de un cuerpo oscuro a una temperatura de 3 kelvin» (Fagen 1972). Aunque Penzias y Wilson entonces lo ignoraban, el carácter de esta radiación de fondo era precisamente la que había sido predicha anteriormente por los cosmólogos que habían formulado la teoría del Big Bang. Su trascendental hallazgo les valió el Premio Nobel.

Lo que estoy sugiriendo es que existe una fuerte lógica interna en algunas industrias, como la del teléfono, que orienta la investigación en direcciones específicas. Consideremos ahora algunas de las necesidades materiales del teléfono. La invención del transistor y el descubrimiento del efecto transistor fueron el resultado de intentos deliberados por encontrar un sustituto del tubo de vacío en la industria del teléfono. El tubo de vacío era inestable y generaba gran cantidad de calor. Después de la invención del transistor su producción en serie requería estándares de pureza del material que no tenían precedentes en la fabricación con fines industriales. Puesto que el funcionamiento del transistor dependía de la introducción de unos cuantos átomos de impureza (de otra sustancia) en el cristal semiconductor, era necesario obtener altos niveles de pureza en dicho semiconductor. Un solo átomo de otra sustancia por cada 100.000.000 de átomos de germanio significaba que el sistema del teléfono debía alcanzar unos niveles de pureza que hacían necesaria gran cantidad de investigación sobre la estructura y el comportamiento de los materiales, en especial el cristal.

La invención del transistor en 1947 tuvo un enorme impacto en la orientación de la investigación científica. Hasta entonces la física del estado sólido había atraído sólo a un reducido número de estudiosos. De hecho, antes de la Segunda Guerra Mundial era una asignatura que ni siquiera se enseñaba en las universidades norteamericanas. Sin embargo, en los años siguientes al anuncio del efecto transistor la asignación de fondos para la investigación experimentó una profunda transformación. De hecho, en cuestión no ya de décadas, sino de años, la física del estado sólido se había convertido en la rama más importante de la física. La gran movilización de recursos económicos hacia ese campo, tanto en las universidades como en la industria privada, fue consecuencia directa de los enormes beneficios potenciales que la llegada del transistor hacía presagiar.

La expansión de la industria del teléfono también supuso que el equipo y los componentes debían funcionar en condiciones ambientales extremas, desde satélites geosíncronos a cables transatlánticos. Estas condiciones extremas tienen una consecuencia particularmente importante: encierran altas posibilidades de traer consigo elevadas penalizaciones económicas si no se consiguen establecer los estándares requeridos de fiabilidad. Existen razones de peso para la consecución y el mantenimiento de dichos estándares que no son aplicables, por ejemplo, en la electrónica de consumo, por no hablar de una fábrica de ladrillos. El mal funcionamiento de un cable submarino una vez instalado en el lecho oceánico supone elevadísimos costes de reparación o de sustitución de piezas, además de la sustanciosa pérdida de beneficios. Del mismo modo, los satélites de comunicaciones tienen que ser altamente fiables y resistentes sólo para poder resistir a su lanzamiento y puesta en órbita. La instrumentación debe estar diseñada para soportar choques, vibraciones, cambios de temperatura, radiaciones, etcétera.

Así pues, un alto grado de fiabilidad no es una mera consideración secundaria sino la esencia misma del éxito económico en esta industria, y tuvo mucho que ver con la alta prioridad que los laboratorios Bell concedieron a la investigación de materiales durante varias décadas. Así, dichos laboratorios lograron avances importantes en la química de los polímeros con el fin de comprender la morfología del polietileno, debido al deterioro prematuro del revestimiento hecho de este material en el lecho del océano Atlántico.

La importancia de altos niveles de fiabilidad también ha sido una condición básica a la hora de impulsar la investigación en otras direcciones específicas. La decisión de poner en marcha un programa de investigación básica sobre la física del estado sólido, que culminó con el desarrollo del transistor, estuvo fuertemente influenciada, como ya he apuntado anteriormente, por estas (y otras) fuentes de insatisfacción. Pero en sus primeros años el transistor poseía sus propios problemas de fiabilidad, surgidos a principios de la década de 1950 conforme crecieron sus aplicaciones. Pasado un tiempo se descubrió que los defectos tenían que ver con ciertos fenómenos de superficie y como resultado de ello se dio un gran impulso a la investigación de la física de superficies, la cual terminó por resolver los problemas de fiabilidad pero, al mismo tiempo, generó una gran cantidad de información nueva sobre esta rama de la física.

El desarrollo de la fibra óptica resulta un ejemplo especialmente apropiado en esta exposición. Aunque su atractivo como nueva modalidad de transmisión aumentó por las restricciones de espacio y la sobrecarga en las comunicaciones, su viabilidad llegó de la mano de una serie de avances tecnológicos ocurridos en la década de 1950. Fue el desarrollo de la tecnología láser lo que hizo posible la utilización de la fibra óptica para la transmisión. Esta posibilidad, a su vez, apuntó al campo de la óptica, donde los nuevos descubrimientos hacían presagiar sustanciosos beneficios económicos. Como resultado de ello la óptica como campo de investigación científica ha experimentado un importante auge en las últimas décadas. Debido a un cambio de expectativas basado en innovaciones tecnológicas pasadas y prospectivas, pasó de ser una disciplina relativamente estancada e intelectualmente somnolienta a un campo emergente de investigación científica. Las causas de ello no fueron inherentes al campo de la óptica sino que estaban basadas en una evaluación radicalmente distinta de sus nuevas posibilidades tecnológicas, las cuales, a su vez, tenían su raíz en el avance tecnológico que supuso la aparición del láser.

Esta argumentación posee implicaciones, me parece, que revisten una importancia fundamental a la hora de comprender el papel de la ciencia en la economía moderna. Aunque el impacto del nuevo conocimiento científico en la industria se ve continuamente subrayado en los debates públicos, la atención prestada a las fuerzas causales que fluyen en dirección opuesta es mínima. Y, sin embargo, las industrias de alta tecnología ponen en funcionamiento fuerzas extremadamente poderosas que estimulan e influyen la investigación científica. Ello ocurre de diversas maneras: al proporcionar observaciones o plantear cuestiones que sólo pueden darse en un contexto científico, tales como el teléfono o la industria aeronáutica; al proveer nuevas técnicas de instrumentación que amplían de forma considerable la capacidad de observación, medida y estimación del científico, y, sobre todo, al elevar los beneficios económicos de los resultados de la investigación científica y, por lo tanto, incrementar poderosamente las motivaciones de la industria privada para financiarla.

Debemos entender que los notables logros de los laboratorios Bell durante el siglo xx no tuvieron parangón en otros sectores de la industria estadounidense; de hecho fueron verdaderamente únicos en muchos aspectos, pero muchas otras compañías de este país desarrollaron potentes capacidades científicas de gran valor económico, una afirmación que se ve confirmada por la formulada anteriormente de que en 1992 en Estados Unidos existían alrededor de 12.000 laboratorios de industrias privadas.

Una generalización justa sería afirmar que las compañías estadounidenses aprendieron a explotar el conocimiento y la metodología científicos y a unir estas fuerzas por medio de la organización y los incentivos apropiados, y en dicha empresa tuvieron más éxito que otros países de la OCDE.

El carácter cada vez más multidisciplinar de la naturaleza de la investigación (y la innovación)

Hay otro rasgo de la práctica científica que requiere atención por la importancia de sus implicaciones en el futuro. La naturaleza cada vez más multidisciplinar de la investigación en los ámbitos tanto de la ciencia como de la tecnología a partir de la segunda mitad del siglo xx.

La historia sugiere que el traspase de fronteras disciplinares no es algo que surja de un plan deliberado, de una estrategia o de la reunión de un comité; más bien se trata de algo que ocurre, cuando lo hace, como consecuencia de la peculiar lógica del progreso científico. Históricamente han surgido problemas en la frontera de una disciplina concreta, como puede ser la biología celular, que requerían una mejor comprensión del papel de determinados procesos que eran la especialidad de científicos de otra disciplina, por ejemplo, la química. La disciplina resultante, la bioquímica, es por tanto el producto natural de las cambiantes exigencias de la investigación científica. De igual modo, la geofísica surgió como una rama independiente de la geología cuando se hizo posible aplicar las metodologías, primero desarrolladas en el campo de la física, para la comprensión de la estructura y la dinámica de la Tierra, así como, con el tiempo, de otros planetas. Aquí, como en otras ocasiones, la introducción de nuevas tecnologías de instrumentación ha conducido a una intersección beneficiosa entre disciplinas científicas. Las fronteras tradicionales entre la física y la química se han traspasado en numerosas ocasiones en el pasado por razones similares.

La importancia creciente de la capacidad de explotar el conocimiento y las metodologías de más de una disciplina se ha hecho evidente no sólo en la ciencia básica sino también en la aplicada y en las ingenierías. En los últimos años la ciencia médica se ha beneficiado inmensamente no sólo de disciplinas «cercanas» como la biología y la química, sino también de la física nuclear (resonancia magnética nuclear, inmunoradioensayo), la electrónica, la ciencia de materiales y la ingeniería. En farmacia ha habido avances notables derivados de campos como la bioquímica, la biología molecular y celular, la inmunología, la neurobiología y la instrumentación científica. Estos avances apuntan a la posibilidad de que nuevos medicamentos con propiedades específicas podrán ser fijados como objetivos e incluso, algún día, diseñados, lo que supone un gran avance comparado con los exhaustivos, costosos y aleatorios métodos de testeo que han caracterizado la investigación farmacéutica en el pasado (ver Gambardella 1995). El nuevo patrón de innovación es, por su naturaleza misma, altamente multidisciplinar. Su éxito pasa por la estrecha colaboración entre un número cada vez mayor de especialistas: químicos, bioquímicos, farmacéuticos e informáticos. Sobre lo que no hay duda es que las ciencias biológicas serán cada vez más relevantes en el descubrimiento y desarrollo de nuevos medicamentos. Esto parece también evidente en la todavía naciente industria de la biotecnología, que se nutre de muchas disciplinas científicas diferentes, incluyendo la biología celular, molecular, la química de proteínas y la bioquímica.

El creciente valor de la investigación interdisciplinar plantea serios problemas organizativos de cara al futuro. Esta clase de investigación a menudo va en contra de las costumbres, formación, prioridades intelectuales y dinámica de incentivos de la profesión científica, especialmente en el terreno académico, donde se otorga una inmensa importancia al trabajo realizado dentro de unos límites disciplinarios claramente diferenciados. Las disciplinas divididas en departamentos han desempeñado un papel crucial en la enseñanza y la investigación y ciertamente no deben ser menospreciadas. Históricamente, las disciplinas científicas han surgido porque dentro de sus fronteras existía una serie de problemas que no podían resolverse mediante una conceptualización, un marco o una metodología analíticos corrientes. Los que trabajan en un mismo campo hablan un lenguaje común y, lo que es igualmente importante, esta disciplina que comparten les proporciona una base para elaborar juicios acerca de la cualidad de su investigación. A este respecto la dedicación a una disciplina en particular aseguraba unos mínimos estándares de control de calidad.

Aunque existe una gran (y comprensible) preocupación por la futura financiación de las universidades, también se están planeando interrogantes acerca de su organización. Una compartimentalización rígida de disciplinas va en contra de una investigación que requiere cada vez más traspasar las fronteras disciplinares tradicionales. Cabe observar que dichos problemas no resultan tan graves en el sector de la industria privada, donde las fronteras interdisciplinares no pesan tanto y donde las prioridades son resolver problemas, mejorar el rendimiento de la tecnología existente y, en última instancia, generar mayores beneficios independientemente de las disciplinas científicas aplicadas.

Persistencia de la incertidumbre

Existe una cuestión de la que debemos ocuparnos: se trata de la persistencia de la incertidumbre, no sólo en el terreno de la ciencia, donde está universalmente aceptada, sino también en el de la tecnología. Estamos acostumbrados a esperar un alto grado de incertidumbre y de desenlaces imprevistos en el mundo de la investigación científica. Estas incertidumbres disminuyen conforme avanzamos en el espectro de actividades que van desde la investigación básica a la aplicada, después al diseño y desarrollo del producto y, por último, a la comercialización del nuevo producto en el mercado.

Es cierto, claro está, que algunas de las incertidumbres son resueltas una vez que la nueva habilidad electrónica ha sido establecida. Pero incluso una vez ha sido aceptada en el mercado los interrogantes cambian y estos nuevos interrogantes no son, en modo alguno, más sencillos que los anteriores. El más importante de ellos es: ¿qué función desempeñará esta nueva capacidad tecnológica dentro de la sociedad?

Parece ser que nadie previó la aparición de Internet y que en lugar de ello simplemente «apareció» una vez que hubo un número suficiente de ordenadores funcionando. Tal y como David Mowery apuntaba en su fascinante artículo: «Internet es la red informática más grande del mundo, un conjunto en constante crecimiento de más de cien millones de ordenadores que se comunican los unos con los otros utilizando una red común de normas y protocolos. Gracias a las innovaciones en software que han aumentado la accesibilidad y utilidad de la red, Internet ha impulsado una revolución en las comunicaciones que ha cambiado la manera en que los individuos y la instituciones usan los ordenadores en una gran variedad de actividades» (Mowery y Simcoe 2002).

Pensemos en el láser, una innovación que es sin duda uno de los avances tecnológicos del siglo xx más poderosos y versátiles y del que probablemente restan por descubrir nuevos usos. Desde que se inventó hace más de medio siglo su amplia gama de aplicaciones ha resultado ser asombrosa. Éstas incluyen medición de precisión, instrumentos de navegación y, por supuesto, investigación farmacéutica. Resulta esencial para la reproducción de alta calidad de música en los discos compactos o CD. Se ha convertido en una alternativa a numerosos procedimientos quirúrgicos, incluida la extremadamente delicada cirugía ocular, donde se emplea para corregir desprendimientos de retina, y en la ginecológica, donde ha hecho posible la extirpación de determinados tumores mediante procedimientos más sencillos y menos dolorosos. Se emplea extensamente también en cirugía de la vesícula biliar. Las páginas de este artículo han sido impresas en una impresora láser. El láser se emplea diariamente en la industria, incluida la textil, donde permite cortar las telas en las formas deseadas, en metalurgia y en la fabricación de materiales compuestos, donde desempeña funciones similares. Pero quizá donde mayor impacto ha tenido la aplicación del láser es en el mundo de las telecomunicaciones donde, junto con la fibra óptica, está revolucionando la transmisión. El mejor cable trasatlántico existente en 1996 era capaz de transportar simultáneamente sólo 138 conversaciones entre Europa y América del Norte. El primer cable de fibra óptica, instalado en 1988, podía transmitir hasta 40.000. Los cables de fibra óptica instalados a principios de la década de 1990 transmiten casi un millón y medio de conversaciones al mismo tiempo. Y sin embargo sabemos que los abogados de patentes de los laboratorios Bell se mostraron reacios en un principio a solicitar la patente del láser argumentando que tal invento, puesto que entraba en el terreno de la óptica, no tendría aplicación posible en la industria del teléfono. En palabras de Charles Townes, quien recibió el Premio Nobel de Física por sus investigaciones con el láser, «el departamento de patentes de Bell rechazó en primera instancia patentar nuestros amplificador y oscilador para frecuencias ópticas porque, aducían, las ondas ópticas nunca habían sido relevantes para las comunicaciones y por tanto nuestro invento no tenía interés alguno para los laboratorios Bell» (Townes 1968).

El transistor fue, sin duda, uno de los grandes avances del siglo xx, incluso, podríamos decir, de la historia de la humanidad. En consecuencia cabría esperar que el anuncio de su invención, en diciembre de 1947, hubiera ocupado la primera página del New York Times. Nada más lejos de la realidad. Cuando por fin se mencionaba, era sólo en un breve en las páginas interiores, dentro de una columna semanal titulada «Noticias de la radio». Aparte de la fabricación de mejores audífonos, no se le suponía ninguna otra utilidad práctica.

Si hiciéramos una relación de grandes inventos científicos del siglo xx cuyas aplicaciones futuras y beneficios potenciales pasaron desapercibidos en su momento sería infinita: el láser, el ordenador, el transistor… Si quisiéramos, podríamos divertirnos recordando la incapacidad de generaciones anteriores para ver lo obvio, tal y como lo vemos hoy día. Pero eso sería, a mi juicio, una presunción por nuestra parte. No tengo especial fe en nuestra capacidad para superar las incertidumbres que van aparejadas al uso de nuevas tecnologías.

De igual manera, la principal razón para las modestas perspectivas de futuro que se perfilaban para el ordenador a finales de la década de 1940 era que los transistores no se habían incorporado aún a dichos aparatos. Al introducir el transistor, y más tarde los circuitos integrados, la industria informática se transformó por completo. De hecho, en uno de los más extraordinarios logros del siglo xx, el circuito integrado con el tiempo se convirtió en un ordenador, gracias a la aparición del microprocesador, en 1970. El mundo sería hoy muy distinto si los ordenadores siguieran operando con tubos de vacío.

Bibliografía

Constant, E. W. The Origins of the Turbojet Revolution. John Hopkins University Press: Baltimore, 1990: 240.

Dinn, N. F. «Preparing for future Satellite Systems». Bell Laboratories Record (octubre de 1977): 236-242.

Fagen, M. D., ed. Impact. Bell Telephone Laboratories. 1972: 87.

Gambardella, A. Science and Innovation in the US Pharmaceutical Industry. Cambridge University Press, 1995.

Mowery, D. y T. Simcoe. «Is the Internet a US Invention?». Research Policy, vol. 31, (diciembre de 2002): 1.369-1.387.

Townes, Ch. «Quantum Mechanics and Surprise in the Development of Technology». Science (16 de febrero de 1968): 701.

Whitehead, A. N. Science and the Modern World. The MacMillan, 1995: 98.

Citar esta publicación

Publicaciones relacionadas

Descargar Kindle

(193,1 KB)

Descargar EPUB

(91,1 KB)

Descargar PDF

(86,5 KB)
Ver libro 2009 Fronteras del conocimiento
Escuchando
Mute
Cerrar

Comentarios sobre esta publicación

Escribe un comentario aquí…* (Máximo de 500 palabras)
El comentario no puede estar vacío
*Tu comentario será revisado antes de ser publicado
La comprobación captcha debe estar aprobada