sábado, 28 de noviembre de 2009
La inteligencia, factor clave frente al terrorismo internacional
http://www.ieee.es/archivos/subidos/CE/CE_141_Inteligencia.pdf
La introducción, de Carlos Villar Turrau, resume el contenido del cuaderno:
Hace algunas semanas tuvo lugar el quinto aniversario de la cadena de
atentados que en marzo de 2004 sacudieron a España y al mundo, y que
se saldaron con doscientos muertos y un millar de heridos. No han sido
los únicos hechos de esta categoría, ni los más terribles. Muchos otros
países han sufrido ataques similares, y puede darse por hecho que en el
futuro habrá más.
Todo ello viene a recordarnos que el terrorismo yihadista, origen de los
ataques citados, es un desafío en toda regla a nuestra seguridad, no solo
en nuestro propio territorio o en el de aquellos países en los que despliegan
nuestras Unidades en misiones de paz y seguridad, sino, en realidad,
en cualquier lugar del mundo: recuérdese que, no hace mucho, una delegación
española encabezada por la Presidenta de la Comunidad de
Madrid se vio atrapada en un ataque terrorista llevado a cabo en Bombay
por un grupo, al parecer, conectado con el movimiento yihadista.
El terrorismo de esta naturaleza es un fenómeno complejo que explota
con gran flexibilidad los descontentos existentes en diferentes comunidades
musulmanas en pos de la consecución de sus propios fines. Dada la
ambición de éstos y la difícil solución que tienen muchos de aquellos, es
evidente que estamos ante un fenómeno que va a ser duradero. Es preciso
por lo tanto analizarlo con detalle para saber a qué hemos de enfrentarnos.
Un primer examen pone de relieve algo que por otra parte resulta obvio
para cualquier observador, y es la gran diferencia (o asimetría, por emplear
el término en boga) que existe entre los dos actores del enfrentamiento: el
grupo terrorista por un lado, y el Estado por el otro. Y en ningún ámbito
aparece más patente la diferencia que en el relativo al empleo de la violencia
por el primero y de la fuerza por el segundo.de la violencia
por el primero y de la fuerza por el segundo.
El terrorista yihadista constituye una clara minoría dentro de la sociedad
en la que vive y de la que procura no diferenciarse. Esa sociedad no
es probablemente más proclive a la violencia de lo que pueda serlo la
nuestra, por poner un ejemplo, y el terrorista ha de movilizarla o, al menos,
ganarse su aceptación pasiva. El uso de la violencia es uno de los instrumentos
que emplea para legitimarse ante esa sociedad, haciendo ver la
seriedad de su propósito. A ella, pues, se dirige el terrorista en primer
lugar con su violencia. Su lucha para ganar legitimidad mediante atentados
se libra en buena parte en el terreno mediático empleando una mezcla
dispar de medios que une la modernidad de Internet con el aparente primitivismo
del suicida que se inmola para matar. Ni qué decir tiene que,
dada la altura de miras que atribuye a la causa por la que lucha, ningún
escrúpulo moral limita el daño que intenta causar.
Muy diferente es la situación del Estado en lo que al uso de la fuerza
se refiere. Sobre todo si se trata, como es el caso de España, de sus
socios en la Unión Europea y de sus aliados de la alianza atlántica, de
Estados democráticos de derecho: el uso de la fuerza les deslegitima en
la medida en que no puedan convencer a la opinión pública de que lo
hacen justificadamente y de que la emplean con precisión y sólo en la
medida necesaria. Este hecho, y la propia naturaleza de la lucha contra el
terrorismo, hacen ineficaz el empleo convencional de la fuerza como único
recurso para enfrentarse al yihadismo. De aquí nace, por cierto, el renacido
interés que hoy existe en los ejércitos occidentales por las teorías
que sobre la guerra insurreccional o de guerrillas se elaboraron durante los
años 60, al hilo de las guerras de descolonización; teorías que durante
cerca de medio siglo se habrían visto relegadas a un segundo plano por
una visión del conflicto armado más convencional y orientada a la tecnología,
pero que la evolución de los conflictos de Irak y Afganistán ha traído
de nuevo a un primer plano.
De todo ello se deduce la importancia de combinar un empleo medido
de la fuerza militar allí donde ésta es necesaria, con otras variadas formas
de actuaciones que van desde las puramente policiales hasta las diplomáticas,
pasando por las orientadas al desarrollo político y económico del
grupo social en el que haya anidado el terrorismo. Una de las más importantes,
porque orienta a las restantes, es la inteligencia. Si esta es importante
en todo conflicto, más aún lo es en el que aquí nos ocupa. Las razones
son varias: nos enfrentamos a un adversario poco definido; sus
motivaciones nos resultan casi siempre ajenas; su lenguaje nos es desconocido,
salvo excepciones; sus códigos de comportamiento no son los
nuestros, y sus formas de actuación nos resultan extrañas y nos repugnan
en muchos casos.
De ahí la pertinencia de este Cuaderno, que analiza el papel vital que
juega la inteligencia frente al terrorismo yihadista. En él se dan cita cuatro
de nuestros mejores especialistas del mundo universitario y un cualificado
representante del propio Ministerio de Defensa. Partiendo solo de fuentes
abiertas consiguen entre todos darnos una visión detallada de ambas
cuestiones, construida desde una óptica fundamentalmente española y
solo limitada por la propia extensión del Cuaderno. Tal y como queda
reflejado en el índice, el esquema lógico que se ha seguido consiste en
analizar en primer lugar el terrorismo yihadista para explicar después el
papel de la inteligencia en la lucha contra el mismo.
El profesor D. Rogelio Alonso abre el primero de los trabajos con una
explicación de los rasgos distintivos de esta clase de terrorismo que sirve
de introducción al conjunto del Cuaderno, para analizar a continuación los
procesos de radicalización y reclutamiento que lo alimentan. Se trata de
dos aspectos básicos del fenómeno puesto que tratan de responder a una
pregunta que es clave: ¿cómo se genera un yihadista? Pese a ello, son
procesos poco estudiados y tardíamente incorporados a las estrategias
antiterroristas pues, como el profesor Alonso nos recuerda, en Europa el
Consejo solo lleva a cabo esta incorporación el 25 de marzo de 2004, es
decir, tras los atentados de Madrid.
A juicio del autor, estos procesos se apoyan en una ideología —la neosalafista—
que justifica la violencia más brutal; en la socialización en el
odio que se produce en determinados entornos; en una propaganda que
presenta al terrorismo como un instrumento necesario, eficaz y honorable,
y en la influencia de algunas figuras carismáticas que actúan como referentes.
Quizás nada resuma mejor estas tesis que la cita que el profesor
Alonso recoge del sirio Setmarian: «El terrorismo es un deber y matar, una
regla. Todo joven musulmán debe convertirse en terrorista». Frente a todo
ello propone una estrategia orientada a la prevención y a la contención,
basada en una batería de medidas entre las que destacan el esfuerzo para
integrar en la cultura democrática a los grupos susceptibles de generar
radicalismo, con especial atención a la segunda y tercera generación de
inmigrantes; las iniciativas educativas y culturales que se opongan a la
intolerancia y al fanatismo propios de estos grupos; y, por último, la presión
contra las redes de radicalización y reclutamiento, que ha de ser policial
y judicial pero debe extenderse a ámbitos como las prisiones o Internet.
Todo ello, sin olvidar el papel y la responsabilidad que corresponde a
los medios de comunicación social en una lucha que, como ya se ha
dicho, es en buena parte mediática.
En el segundo de los trabajos, el profesor D. Javier Jordán describe la
estructura y el funcionamiento de las redes yihadistas en Europa, centrando
su estudio en las de la actual «tercera etapa». Con esta denominación nos
recuerda que el yihadismo tiene tras de sí una larga historia, a lo largo de la
cual ha evolucionado; y que hoy ya no nos enfrentamos a los grupos nacionales,
homogéneos y reducidos, propios de la primera etapa, sino a organizaciones
mayores y más numerosas, que cooperan frecuentemente entre sí
y que no dudan en atacar objetivos específicamente europeos.
Empleando la metodología del análisis de redes sociales, junto con
abundantes ejemplos reales que analiza con gran detalle, el profesor
Jordan distingue dos grandes clases de redes: las que están integradas
en organizaciones superiores y las que denomina redes de base, que no
lo están. Las primeras responden al modelo adhocrático, que, como nos
recuerda el autor es la antítesis de los modelos weberiano y taylorista de
organización, que son, por cierto, aquellos en los que estamos acostumbrados
a movernos y a trabajar; se consiguen así organizaciones terroristas
particularmente flexibles y dinámicas. Las redes de base, por su parte,
no están coordinadas por escalones superiores, pero sí influidas por ellos.
Pese a su menor tamaño, no cabe dudar de su eficacia: los atentados del
11-M en Madrid fueron obra de una de ellas. En sus conclusiones, el profesor
Jordán pone de relieve el hecho de que pese a las dificultades aparentes,
los servicios de inteligencia pueden actuar contra estas redes
basándose en sus puntos débiles: la escasa cualificación de sus recursos
humanos, producto de los sistemas de selección seguidos y de la ausencia
de formación sistemática, entre otros factores; y su necesidad de interactuar
con el entorno, que hace posible aproximarse a las redes yihasdistas
a través de otras más accesibles (redes de delincuencia común; redes
sociales en torno a mezquitas, en entornos carcelarios, etc.).
Tras este análisis de la estructura de las redes terroristas, el Cuaderno
estudia uno de sus métodos de actuación más característicos: las misiones
suicidas. A ellas está dedicado el tercero de los trabajos, en el que el
profesor D. Luís de la Corte examina la evolución y características de las
misiones suicidas que pudiéramos considerar tradicionales, como de las
que tienen lugar en fechas más recientes bajo la impronta del yihadismo
salafista y de Al Qaida. De acuerdo con su análisis, los atentados suicidas
de origen islamista representaban el 24% del total durante la pasada
década; en la actual, los cometidos por grupos de inspiración salafista
total o parcialmente identificados con el proyecto de Al Qaida ascienden
al 70%. Esta organización, que los emplea desde su inicio, se ha caracterizado
por no limitarlos a ninguna región concreta del mundo, buscar victimas
civiles occidentales y judías en países no musulmanes, alcanzar
niveles inéditos de letalidad y resonancia mediática, seleccionar objetivos
con una alta carga simbólica y desarrollar una eficaz labor propagandística
en torno a los atentados.
Los ataques suicidas siguen siendo un medio muy útil para el terrorismo
yihadista, y un medio barato y fácil de usar. Cierto es que para disponer
de terroristas suicidas han de darse las circunstancias adecuadas:
no bastan los procesos de radicalización y reclutamiento previamente
estudiados; ha de haber —y debe cuidarse— lo que el profesor de la
Corte denomina una «subcultura del martirio», que ya existía en ciertos
entornos desde el siglo pasado pero que al Qaida ha revitalizado; han de
darse también determinadas condiciones sociales y, sobre todo, psicológicas
en el futuro suicida: en particular, éste debe interiorizar una visión
heroica y enaltecedora de su futura acción y ha de sentir una aguda necesidad
de trascendencia social. Partiendo de estos rasgos y del resto de
las características de esta clase de misiones, el profesor De la Corte propone
a los servicios de inteligencia el escrutinio constante de una serie de
indicadores de ataques suicidas para contribuir así a desarrollar una respuesta
especifica contra los mismos.
Analizado ya el terrorismo yihadista desde la perspectiva de este Cuaderno,
sus dos últimos trabajos abordan el papel que frente a él juega la
inteligencia. En el primero de ellos, el profesor D. Diego Navarro examina
la que puede obtenerse de fuentes abiertas, para, a continuación, y visto
el uso intenso que de la misma hacen los grupos terroristas, alertarnos
tanto sobre nuestra llamativa vulnerabilidad en este campo, como sobre
las posibilidades de actuación que nos brinda. Para ello, analiza en primer
lugar lo que es y lo que representa actualmente, incluso para los servicios
oficiales, la inteligencia de fuentes abiertas, que en los países occidentales
es muy abundante, además de fiable y barata. Ante la imposibilidad
práctica de acudir a otros medios más complejos, como serían la inteligencia
de señales o la de comunicaciones, entre otras, es lógico que el
yihadismo haga un uso preferente de las fuentes humanas y de las abiertas.
Como el propio autor reconoce, existen técnicas que nos permiten
explotar esta dependencia, pero su utilidad no es la misma en el nivel
estratégico que en el operacional o en el táctico, donde también las
emplean los terroristas.
Por otro lado, el profesor Serrano expone también su preocupación
por el uso que el terrorista, real o potencial, puede hacer de una clase
especial de información abierta: la que es susceptible de obtenerse en
nuestras Universidades, un entorno particularmente abierto a la discusión
y al intercambio de conocimiento que además, gracias a sus especiales
características, puede dar cobijo a grupos terroristas capaces de vivir y
desarrollarse en su seno hasta el momento en que decidan actuar.
En el último de los trabajos del Cuaderno se analiza el papel que
juegan los servicios de inteligencia en la lucha contra el terrorismo yihadista
y en los retos a los que se enfrentan. Su autora, la analista Dña.
María de los Ángeles López, pertenece al Ministerio de Defensa, y, en consecuencia,
su estudio está fundamentalmente orientado hacia las actividades
y perspectivas del Centro Nacional de Inteligencia. Su trabajo se
inicia con una descripción del escenario internacional en el que tiene lugar
la lucha contra el yihadismo, y de los instrumentos y medios empleados
en la misma; a este respecto, cabe destacar la importancia que atribuye
al uso de Internet y a los medios de comunicación. Esta importancia, ya
señalada al comienzo de esta Introducción, queda recogida con toda claridad
en la cita que la autora hace del propio Ayman Al-Zawahiri: «Os digo
que estamos librando una batalla y más de la mitad del combate se libra
en el campo de batalla de los medios de comunicación».
Entrando ya en la lucha contra el terrorismo, la autora recuerda las tres
funciones que en ella desempeñan los servicios de inteligencia (preventiva,
investigadora y de apoyo), reconoce la prioridad que en la citada
lucha tienen las fuentes humanas y explica los cambios a los que han
debido hacer frente los servicios de inteligencia al tener que combinar su
trabajo tradicional, mas orientado hacia el medio y largo plazo, con el que
exigen las meras tareas de seguridad en el corto plazo. Todo ello se ha traducido
en la necesidad de acometer cambios estructurales en los citados
servicios, tanto en España como en nuestros socios y aliados, y a una
mayor cooperación entre todos ellos.
Especialmente interesantes resultan las consideraciones que la autora
hace en torno a dos aspectos concretos de la lucha antiterrorista: su
marco legal y su incardinación en una estrategia de seguridad nacional.
Respecto del primero, es sabido que, al menos durante los mandatos del
presidente Bush, Estados Unidos se consideraba en guerra contra el
terrorismo yihadista, en tanto que España —como el resto de nuestros
socios europeos— tenía al terrorismo por un crimen; es evidente que esta
diferencia de enfoque condiciona las actividades concretas antiterroristas
y entre ellas las de los servicios de Inteligencia. En cuanto a la estrategia
de seguridad nacional, entendida ésta de manera amplia, su necesidad es
evidente y constituirá el marco integrador de los esfuerzos de cuantos trabajan
en alguno de los múltiples aspectos que engloba ese concepto,
entre los que sin duda figura la lucha contra el terrorismo yihadista. Quizás
sea ésta la razón por la que la propia ministra de Defensa anunció su próxima
elaboración cuando compareció ante la Comisión de Defensa del
Congreso, el pasado veinticinco de noviembre, para informar acerca del
proyecto de nueva Directiva de Defensa Nacional.
Negocio climático
http://www.libertaddigital.com/ciencia/la-cupula-climatica-admite-en-privado-la-falta-de-calentamiento-global-1276377339/
Los sociólogos de la Ciencia nos han advertido que los científicos se mueven por motivos personales, el dinero, la fama..., en definitiva, son humanos.
El paradigma del cambio climático tiene mucho de eso. Las subvenciones, premios y reconocimiento caen siempre del lado de los científicos que defienden un calentamiento global y un origen antrópico. Este es un motivo suficiente para que Al Gore y sus seguidores tergiversen los datos sobre el clima.
Incluyo una entrevista a José Antonio Maldonado, presidente de la Asociación Meteorológica Española y director de eltiempo.es, donde denuncia estas manipulaciones y se muestra escéptico con respecto a la eficacia de los acuerdos internacionales de reducción de emisiones de CO2.
http://www.eltiempo.es/
jueves, 26 de noviembre de 2009
La evolución de Darwin
Contra la pobreza, más y mejor cooperación
En septiembre de 2000 se celebró en la ONU la Asamblea del Milenio y los dirigentes mundiales se comprometieron a algunos avances, pero la pobreza siguió aumentando. Uno de los objetivos de la Asamblea era fomentar una asociación para el desarrollo y este documental versa sobre su cumplimiento.
Las metas de este objetivo son:
- Evitar los aranceles a las exportaciones de los países pobres.
- Reducir la carga de la deuda externa.
- Aumentar la cuantía y eficacia de la ayuda oficial al desarrollo. En la Conferencia de Monterrey se fijó el objetivo del 0,5% del PIB de los países ricos.
Pero este objetivo no se cumple.
- En 2008, USA dedicó el 0,18% y Japón el 0,17%.
- Sólo cinco países superan el 0,8% de su PIB: Suecia, Noruega, Luxemburgo, Dinamarca y Holanda.
- España dona el 0,45%.
De cara al aumento de la eficacia de la ayuda se destaca en el documental la necesidad de someter la ayuda a controles democráticos, tanto en los países donantes como en los receptores.
También se informa sobre el papel de las ONGs en la canalización de las ayudas y se reflexiona sobre la sensibilización de población.
miércoles, 25 de noviembre de 2009
Ilusiones ópticas y cerebrales
domingo, 22 de noviembre de 2009
Across the universe. Let it be.
El debate sobre el método científico
TEMA 1: EL DEBATE SOBRE EL MÉTODO CIENTÍFICO
El tema 1 pretende proporcionar un contexto general al conjunto del curso, introduciendo algunas cuestiones filosóficas (en sí mismas, muy amplias) sobre la ciencia.
- La primera de ellas es qué consideramos conocimiento científico: los filósofos entienden por conocimiento la información contenida en proposiciones.
- Por ejemplo, las oraciones "La nieve es blanca" y "The snow is white" contienen la misma información (la misma proposición), aunque expresada en dos lenguajes distintos (inglés y castellano).
- Lo que nos importa es analizar cómo justificamos ciertas proposiciones articulándolas con otras. Por ejemplo, podemos justificarlas inductivamente:
- Si observamos 10 cisnes la información contenida en las proposiciones "A es un cisne blanco", "B es un cisne blanco", "C es un cisne blanco", etc. puede llevarnos a concluir "Todos los cisnes son blancos". Pues bien, en la primera parte del tema 1 se presenta la influencia de esta posición inductivista en la filosofía de la ciencia del XX y las objeciones que recibió. Esto nos proporciona el contexto general de los temas 2-5, en el que nos ocupamos de cómo justificar ciertas proposiciones articulándolas en explicaciones, a veces inductivamente, a veces según otros patrones.
- La segunda parte del tema 1 nos presenta la cuestión del realismo, esto es, el problema de las relaciones entre la teoría y el mundo. Intuitivamente, solemos pensar que entre una teoría y el mundo se da una relación de correspondencia:
- Una teoría es verdadera si a los términos de la teoría (átomos, moléculas, células) les corresponden entidades reales cuyo comportamiento se adecúa a lo descrito en la teoría.
- No obstante, muchos cuestionan que las teorías nos proporcionen algo más que un modo de manipular el mundo: los astrónomos antiguos pensaban que el Sol era un planeta en movimiento alrededor de la Tierra y, aunque su teoría era descriptivamente falsa, podían obtener predicciones acertadas sobre la trayectoria de los planetas del sistema solar (eventualmente útiles, por ejemplo, para la navegación). Según esta posición (instrumentalista), no estamos nunca seguros de la verdad de una teoría, pero basta con su eficacia predictiva para aceptarla.
- Hay también quien cuestiona que la teoría describa el mundo. Según estos, la teoría proyecta nuestros conceptos sobre el mundo: cada comunidad representa el mundo conforme a sus intereses, de modo que no hay descripciones exactas o predicciones certeras en abstracto; juzgaremos siempre cada descripción o predicción conforme a nuestros intereses. Esta es la semilla del relativismo. Veremos cómo la relación entre teoría y sociedad presenta los mismos problemas en los temas 7-10.
1. El modelo empirista clásico en la investigación científica
Desde el origen de la ciencia moderna, se ha tendido a considerar
CONOCIMIENTO CIENTÍFICO = CONOCIMIENTO DEMOSTRADO
En aquella época se formularon dos concepciones distintas de cómo puede demostrarse un enunciado científico.
Concepción empirista, inductivista o Baconiana (Francis Bacon) | El conocimiento científico se demuestra a partir de la observación cuidadosa de los fenómenos. | La inducción procede de lo particular a lo general | Hume: Ni la experiencia ni la razón son capaces de demostrar rigurosamente la verdad de una ley científica |
Concepción deductivista o Cartesiana (René Descartes) | Los principios fundamentales son obtenidos mediante el razonamiento puramente intelectual y a partir de ellos se van deduciendo enunciados más específicos mediante el razonamiento lógico. | La inferencia o deducción procede de lo general a lo particular |
El triunfo de la física newtoniana dio ventaja a la concepción empirista. La formulación más desarrollada es el MODELO CLÁSICO del Círculo de Viena (Concepción Heredada, Positivismo Lógico = empirismo + lógica).
- Los científicos encuentran leyes o regularidades empíricas. Enunciados generales que establecen una conexión bien confirmada (en mayor o menor medida) entre fenómenos observables. Los enunciados científicos pueden ser confirmados por la experiencia.
- Estas leyes tienen la estructura de un enunciado general o universal: Siempre que se den ciertas circunstancias se darán también ciertas otras.
- Es posible distinguir claramente entre el nivel empírico y el teórico. Además de encontrar leyes, los científicos formulan teorías (explicación y predicción científica) que pueden incluir conceptos no referidos a entidades directamente observables. Método hipotético-deductivo.
- Hipótesis. Las teorías van más allá de las leyes, no pueden inferirse a partir de ellas. Deben ser inventadas.
- Deducción. A partir de las teorías se infieren leyes conocidas o nuevas.
- Permiten unificar y explicar las leyes conocidas.
- Permiten descubrir leyes empíricas nuevas. Se verificarán o refutarán experimentalmente.
- La ciencia progresa por acumulación de descubrimientos. El progreso científico consiste en:
- La acumulación de leyes empíricas cada vez mejor confirmadas
- La formulación de teorías cada vez más profundas.
- Explicación nomológico-deductiva:
- Deducción lógico-matemática del hecho que se quiere explicar (explanandum) a partir del enunciado de una ley ya confirmada (explanans) y otros hechos relevantes (condiciones iniciales).
- Explicación inductivo-estadística
- El explanandum indica la probabilidad con la que el fenómeno puede suceder y el explanans la frecuencia con la que sucede dadas ciertas condiciones iniciales.
2. Críticas al modelo empirista
Autor | Objeción | Criterio de justificación propuesto |
Karl Popper | La inducción no justifica las leyes científicas | Las proposiciones científicas deben ser refutables. |
Thomas Kuhn | Cada teoría científica es parte de un paradigma que define sus propios criterios de justificación. | No hay criterios generales de justificación. |
Paul Feyerabend | No hay datos empíricos puros que sirvan como base a ninguna inducción. Cualquier observación presupone una teoría. | No debe haber normas metodológicas |
Imre Lakatos | Las hipótesis del "núcleo fuerte" no se eliminan aunque aparezcan anomalías empíricas. | Las teorías de un programa de investigación deben ser evaluadas simultáneamente (pensamiento sistémico). |
- El problema de la justificación inductiva: las leyes nunca son completamente verificables (provisionalidad).
- La falsabilidad como técnica de justificación: una proposición científica está tanto más justificada cuanto más intentos de refutación ha resistido.
- Las teorías científicas deben ser falsables: afirmar que ciertos fenómenos no pueden ocurrir. Presentarlas de forma que sea posible ponerlas a prueba, corroborarlas.
- Utiliza la regla lógica modus tollens:
- A→B
- Si No-B
- Luego No-A
- El método científico debe diseñarse de tal manera que permita someter a crítica nuestra ideas con el mayor rigor posible. Lo que distingue la ciencia de otros tipos de conocimiento no es la certeza sino la actitud crítica.
- El progreso de la ciencia consiste en proponer nuevas teorías para reemplazar a las predecesoras, cuyos errores han quedado de manifiesto.
- Los propios enunciados de observación o regularidades empíricas son revisables. La falsación de una teoría nunca es concluyente.
- Es resultado de la decisión de considerar suficientemente contrastado un enunciado empírico.
- Cualquier observación requiere que describamos los fenómenos con ayuda de algunos conceptos cuya validez depende de leyes.
- Las observaciones no son totalmente seguras.
La objeción de Duhem
La deducción de una predicción empírica se hace a partir de varias hipótesis. Supongamos que la teoría T resulta de:
- La conjunción de las hipótesis H1 & H2
- Hipótesis sobre el funcionamiento de los aparatos usados en el experimento E
- Condiciones iniciales C.
- (H1 & H2 & E & C) → P.
Si no ocurre P, lo único que podemos afirmar es que una de las cuatro hipótesis no se cumple.
¿Cómo ponernos de acuerdo en que una proposición científica ha sido refutada?. Mantener una teoría es un convencionalismo.
Popper reconoce esto, pero afirma que lo propio de la actitud científica es decidir de antemano qué hipótesis auxiliares nos parecen suficientemente corroboradas y en qué circunstancias será legítimo el rechazo a una teoría.
El comportamiento de los científicos está influido por condiciones de tipo social que cambian con el tiempo.
Los paradigmas
son el eje de la actividad científica:
- conjunto de teorías, técnicas experimentales, problemas etc. que una comunidad considera canónicos.
- han obtenido éxitos relevantes y son tomados como ejemplo para llevar a cabo las investigaciones.
- Cada paradigma incluye su propio lenguaje, su propia escala de valores y sus propios criterios metodológicos.
- Quienes defienden un paradigma perciben y entienden la realidad de forma radicalmente distinta a como la ven los defensores de otro.
- Los paradigmas rivales son inconmensurables entre sí.
- En los periodos de ciencia normal, los investigadores se limitan a articular un paradigma. Mantienen una actitud dogmática.
- En los periodos de ciencia revolucionaria, algunos científicos intentan proponer un nuevo paradigma que resuelva las anomalías del anterior. El cambio de paradigma, es un fenómeno súbito de conversión, más explicable por factores sicológicos o sociales que por un procedimiento racional.
No podemos encontrar reglas metodológicas que dicten la forma en que debe llevarse a cabo la investigación científica. La ciencia ha progresado porque los científicos han desobedecido continuamente las reglas defendidas por los metodólogos.
- La experiencia suele estar descrita con los esquemas conceptuales de teorías antiguas. (tesis de la carga teórica de la observación de Hanson: cualquier observación presupone alguna teoría).
- Los "argumentos racionales" también toman su fuerza de los conceptos que nos resultan más familiares.
- Exigir que las teorías nuevas sean coherentes con los resultados empíricos y posean además una coherencia interna, puede ocultar una estratagema para defender las teorías vigentes e impedir el desarrollo de nuevas ideas. Muchos conocimientos "empíricos" los hemos obtenido gracias a que algunos científicos defendieron lo que se consideraba imposible.
Propuso el anarquismo metodológico (todo vale). El avance de la investigación no excluye ningún método. No hay datos empíricos puros sobre los que contrastar teorías alternativas: ninguna es inductivamente mejor que otra.
- El éxito de una teoría se debe más a la habilidad de sus defensores que a su coherencia metodológica.
- Se debe favorecer la proliferación de ideas diferentes, por muy absurdas que puedan parecer. La ciencia no debería gozar de privilegios frente al mito, la religión, la brujería, la astrología, etc.
Desarrolló una versión de la teoría falsacionista de Popper más coherente con la historia real de la ciencia.
- Las teorías científicas, al desarrollarse, constituyen el embrión de un programa de investigación. Los programas de investigación constituyen las unidades básicas de la actividad científica. Están formados por:
- Un núcleo firme: hipótesis que no se eliminan aunque en la investigación empírica encontremos anomalías.
- Un cinturón protector: hipótesis que se van añadiendo para generar con el núcleo firme nuevas predicciones y que se van sustituyendo por otras hipótesis cuando las predicciones fracasan.
- Nunca es completamente irracional seguir defendiendo un programa de investigación cuyas teorías hayan fracasado hasta el momento, pues cabe la posibilidad de que se descubra un nuevo cinturón protector que transforme los fracasos en éxitos.
- Un programa de investigación será progresivo (si genera nuevas predicciones correctas) o degenerativo (si se blinda contra potenciales refutaciones, modificando continuamente el cinturón protector). Lo dogmático es negarse a reconocer que un programa de investigación es degenerativo.
- La historia interna de la ciencia, tal como la presenta una determinada metodología, está formada por aquellos episodios históricos que son racionales según dicha metodología. La historia externa consistiría en aquellos acontecimientos que no pueden ser explicados, debidos a factores "extracientíficos".
- La mejor teoría sobre la ciencia, será aquella que consiga explicar un mayor número de acontecimientos históricos y minimizar la historia externa.
3. Objetividad, racionalidad y realismo
3.1 La cuestión del realismo científico
¿Cómo es posible llegar a conseguir un conocimiento objetivo del mundo? No tenemos acceso directo al mundo, solo a nuestras sensaciones. ¿Cómo sabemos que existe algo fuera de ellas? Los conocimientos científicos ¿son descripciones objetivas de la realidad o meras construcciones intelectuales que nos resulta útil aceptar aunque no exista ninguna garantía de que sean verdaderas? A estas preguntas se puede contestar desde dos posiciones extremas:
- La de quienes creen que es razonable pensar que nuestras sensaciones describen bastante bien la realidad (realistas).
- La de quienes piensan que nunca se podrá obtener un conocimiento fidedigno del mundo externo (antirrealistas).
Realismo científico. La ciencia intenta describir la estructura de la realidad y es razonable suponer que muchas veces lo consigue bastante bien. (Hempel). Se pueden distinguir varios tipos de realismo:
- Sobre entidades Los objetos y propiedades analizados en una teoría científica existen realmente, aunque tal vez no exactamente con los describe la teoría.
- Sobre teorías El objetivo de la ciencia es descubrir teorías verdaderas, al menos aproximadamente.
- Hay discrepancia entre los propios realistas acerca de si las teorías científicas nos presentan simplemente la estructura factual de la realidad (cómo es)
- o bien intentan capturar su estructura causal (el por qué).
- Metodológico
- Realismo crítico, Popper. Piensa que la ciencia se va aproximando a la verdad con un grado de aproximación cada vez mayor (verosimilitud). Las pruebas empíricas deben ayudarnos a decidir si las teorías son aproximadamente verdaderas.
- Que las teorías científicas sean aproximadamente verdaderas es la mejor explicación de que sus predicciones sean tan correctas
- Hacking. Aunque las teorías científicas se refieran a entidades (objetos) inobservables, son realistas, porque dichas entidades pueden ser manipuladas experimentalmente.
3.2 Críticas al realismo científico. Antirrealismo.
Argumento metodológico a favor del antirrealismo. Infradeterminación de las teorías por los datos. Existe una infinitud de teorías lógicamente compatibles con cualquier conjunto de datos empíricos, por lo que no puede probarse que una de esas teorías sea correcta con preferencia sobre las demás.
Para entenderlo, dibuja 4 o 5 puntos en un papel. Estos puntos son los datos. Ahora intenta dibujar una cuerva que pase por todos los puntos. Esta curva sería la teoría. Dibuja ahora otra curva diferente que pase por los mismos puntos. Sería otra teoría. Puedes crear infinitas curvas, de modo que los mismos puntos (datos) son compatibles con infinitas curvas (teorías).
- Empirismo. No puede aceptarse la existencia de otras entidades que no sean nuestras percepciones. (fenomenismo)
- Positivismo. Niega la validez científica de las hipótesis sobre entidades inobservables.
- Instrumentalismo. No podemos saber si las teorías científicas nos descubren la "estructura profunda" de la realidad. Las aceptamos porque nos proporcionan buenas predicciones.
Argumento lingüístico. Inescrutabilidad de la referencia (Quine). Es imposible determinar empíricamente si dos expresiones de sendos lenguajes, que aparentemente se pueden traducir la una a la otra, se refieren en realidad a la misma cosa o no. (Asumido también por los relativistas).
Kuhn, Putnam: La noción de realidad es dependiente de la teoría o paradigma que se utilice. Los términos de una teoría, se refieren a una realidad interna a la propia teoría.
En la práctica, esto quiere decir que dos teorías distintas correspondientes a diferentes paradigmas no se pueden comparar porque son "incomprensibles" la una desde la otra. Por ejemplo, para los abortistas abortar es un derecho y para los no abortistas es un asesinato y no hay forma de que se entiendan; el aborto es una "cosa" distinta para unos y otros.
- Concepción estructuralista o no-enunciativa (Stegmüller, Moulines). Los conceptos y teorías son entidades abstractas que pueden aplicarse mejor o peor a un conjunto de sistemas empíricamente dado.
- Imagínate que eres un sistema empírico. La ropa que te pones son las teorías. Unas te quedan mejor y otras peor, pero en ningún caso tienen que ver contigo.
- Relativismo. El conocimiento científico es relativo. El investigador está condicionado por los factores sociales y culturales que intervienen en los procesos de investigación. Son tan fuertes que determinan completamente sus resultados.
3.3 La sociología de la ciencia
La Ciencia es una actividad humana más y por tanto puede estudiarse desde una perspectiva sociológica. La Ciencia se practica en un conjunto de instituciones sociales muy complejas que absorben importantes cantidades de recursos.
- La Sociología analiza el contexto social en el que se desarrolla la actividad científica:
- La sociología clásica de la ciencia (Merton). Existen normas e instituciones sociales (revistas, congresos, premios, laboratorios, etc.) necesarias para la obtención de conocimientos válidos sobre la realidad. No siempre contribuyen al progreso científico de la mejor manera posible. Ordenan la práctica científica sin cuestionar la objetividad de sus resultados.
- La Sociología debe dar una explicación social del propio contenido del conocimiento científico.
- El Programa Fuerte (Bloor, Barnes). El hecho de que una comunidad científica acepte un conocimiento como válido se explica en función de los intereses individuales o colectivos. La explicación del conocimiento científico desde la Sociología debe descubrir la causas sociales por las que una comunidad científica acepta un conocimiento. Según el Postulado de Equivalencia
o Principio de Simetría, esto es aplicable tanto a las creencias consideradas verdaderas o racionales como a las que consideremos falsas o irracionales. - El Programa Empírico del Relativismo
(Collins): el conocimiento científico no es sino una interpretación más del mundo propia de cada sociedad. El Programa consiste en:- Mostrar que cada resultado científico posee varias interpretaciones posibles.
- Analizar los mecanismos que seleccionan solo una de estas interpretaciones.
- Relacionar tales mecanismos con el medio social en que funcionan.
- Los estudios de laboratorio (Latour, Woolgar): Han desembocado parcialmente en la Teoría de la Red de Actores: los hechos científicos no están dados ahí fuera sino que resultan de la negociación entre los propios científicos. La construcción del conocimiento es un proceso de negociación y lucha por el poder en los que los científicos buscan aliados humanos y no humanos (instrumental, material, etc.)
- Otros programas. Presentan propuestas para modificar los determinantes de los resultados científicos.
- Aproximación sociológica
- Estudios de ciencia y género.
- Epistemología social
- Aproximación individual
- Economía de investigación científica
Naturalización de la epistemología (Quine): La ciencia y el conocimiento son fenómenos naturales que deben ser explicados como cualquier otro hecho. El conocimiento científico resulta de procesos que son analizables ellos mismos científicamente (mediante la psicología, la neurología, etc.). Se asientan en nuestras capacidades naturales y por ello podemos confiar en su objetividad (si no hubiera correspondencia entre nuestras sensaciones y la realidad, hace tiempo que la especie humana hubiera desaparecido). La aceptabilidad de los resultados se justifica apelando a valores que los propios científicos aceptan como tales, como pueda ser la simplicidad, la capacidad predictiva etc. (y no a teorías filosóficas generales sobre la justificación como el inductivismo o el deductivismo).
- El principal debate es sobre qué disciplinas científicas son más adecuadas para desarrollar la "ciencia de la ciencia".
- Sicología, biología, historia, sociología…
- Las ciencias cognitivas. Estrategias individuales de obtención de información.
- Neurociencia.
- Teoría computacional.
- Epistemología evolutiva.
Crítica: Está basado en una circularidad, pues se intenta investigar racionalmente cómo ha evolucionado nuestra racionalidad.
Por ejemplo, sería circular decidir la verdad de la religión católica desde el catecismo. También lo es decidir la objetividad de la ciencia desde la propia ciencia.
Naturalismo normativo (Laudan): Intenta describir y explicar científicamente el funcionamiento de la ciencia, sin renunciar a ofrecer criterios que nos permitan evaluar la racionalidad de cada decisión científica.
- Estos criterios consistirían en imperativos hipotéticos (encaminados a conseguir un fin) basados en los propios valores de la comunidad científica o de la sociedad.
Los criterios metodológicos serán diferentes para cada comunidad científica, ya que sus valores son también diferentes.
No a la venta
El único modo de asignación de recursos es el mercado. Los gobiernos y los sindicatos poco pueden hacer contra los intereses de las empresas globales o los grandes capitalistas.
Los pequeños inversores confían su dinero a fondos que invierten pensando únicamente en la rentabilidad sin considerar el impacto en la sociedad de las actividades financiadas (deterioro ambiental, cambio climático, contaminación...)
La globalización es consustancial a los procesos de externalización de la producción: los trabajos y capitales se desvían a los países más favorables.
¿Cómo regular estos procesos? ¿Cómo garantizar los derechos de los trabajadores?
Por un lado, la inversión extranjera en los países en desarrollo parece favorable para estos países, pero para atraer esta inversión, estos países bajan sus niveles fiscales, laborales, ambientales, etc. En definitiva, las empresas globales quedan fuera de toda responsabilidad.
En el documental se recuerdan varios casos de corrupción, falta de respeto a los derechos humanos, catástrofes medioambientales...Entre ellos el de Chiquita Brands en Colombia.
Los servicios públicos se prestan cada vez más mediante empresas privadas. Los ciudadanos que no tienen dinero, quedan fuera de los servicios.
La responsabilidad social corporativa es una alternativa a esta situación. Es crear valor para los clientes y los accionistas, pero también para las comunidades locales, los proveedores, empleados, la sociedad en general. Es un compromiso de cumplir estándares altos de conducta legal, ética, medioambiental...
Pero por otra parte esta forma de autorregulación puede ser también una forma de burlar la presión de los gobiernos y particulares.
viernes, 20 de noviembre de 2009
¿Qué es la muerte?
sábado, 14 de noviembre de 2009
Manny Oquendo y su Conjunto Libre
http://entraenclave.blogspot.com/2005_09_01_archive.html
http://www.myspace.com/mannyoquendoyconjuntolibre
Debate sobre las virtudes morales (1)
Para no dejar a Google en mal lugar, y como el tema corresponde con los tratados preferentemente en este blog, en sucesivas entradas voy a tratar de desarrollar dicho debate.
¿Qué son las virtudes morales? ¿Cuáles son? Si son varias, ¿pueden entrar en contradicción? ¿cómo se puede resolver?.
¿Son universales o dependientes de la cultura?
¿Qué relación tienen con la ética, la religión, la racionalidad, la política...?
¿Que ventajas tiene su práctica? ¿Qué problemas pueden sufrir quienes no las practiquen?
Para las respuestas, como siempre, buscaré el justo medio. No en vano decía Horacio virtus in medio est. Indudablemente, a lo largo del debate, irán surgiendo nuevas preguntas y categorías.
domingo, 8 de noviembre de 2009
Manuel María Carreira: El origen del Universo
http://www.galegos.info/es/manuel-maria-carreira-verez
Esta conferencia se celebró el 4 de noviembre de 2009 dentro del XIV Ciclo de Conferencias 2009-2010 de Humanidades, Ingeniería y Arquitectura de la Universidad Politécnica de Madrid.
Comienza explicando su concepción de la Ciencia, plenamente positivista, materialista, reduccionista, empirista y universalista.
Nos recuerda que los griegos (Aristarco) propusieron ya la forma y tamaño de la Tierra, la distancia a la Luna, al Sol y los aspectos esenciales del Sistema Solar. Galileo demostró que la Luna y el Sol son cuerpos físicos y descubrió cuatro planetas de Júpiter. Con Galileo y la Ley de la Gravitación Universal de Newton, dio inicio la Astronomía moderna.
El estudio de las estrellas comenzó analizando la luz, lo que permitió conocer la temparatura relativa de las estrellas y la composición de sus gases formantes. Establecida la distancia, midiendo ángulos de su posición en diferentes fechas, se pudo medir su luminosidad y tamaño. El Sol resulta tener un tamaño superior al 90% de las estrellas. También se puede saber el tiempo de agotamiento. El Sol se encuentra hoy a la mitad de su vida. Las estrellas están casi exclusivamente constituidas de hidrógeno y helio. La Tierra tiene una composición extraña en el Universo, casi totalmente formada por hierro, silíceo y oxígeno. Sólo conocemos cómo es una pequeña parte de la materia del Universo.
El Sol está en un borde de la Vía Láctea. Cada 250 mda el Sol da una vuelta alrededor del centro.
http://es.wikipedia.org/wiki/VÃa_Láctea
Alejándonos de la Vía Láctea encontramos galaxias por miles (cien mil millones). Hay razones físicas para pensar que el Universo es finito (de lo contrario no habría espacio entre las estrellas ni fuerzas gravitatorias netas, paradoja de Olbers)
http://es.wikipedia.org/wiki/Paradoja_de_Olbers
El Universo no puede ser eterno, pues si lo fuese ya se habrían apagado todas las estrellas.
Einstein explicó la gravedad como una distorsión del espacio tridimensional hacia una cuarta dimensión espacial perpendicular a las otras tres, que no nos podemos imaginar (no es el tiempo). La Ley de la Relatividad General implica un Universo con deformidades, lo que explica las anomalías en el movimiento del perihelio de Mercurio. La aceleración de la gravedad es indistinguble de la aceleración mecánica, por tanto, también la luz cae en un campo gravitatorio, lo que se puede comprobar con la luz de las estrellas, que llega a nosotros con la trayectoria modificada cuando se produce un eclipse de sol. Toda la masa del Universo debe causar una deformación general que causa que el espacio sea finito pero ilimitado (no tiene borde). El espacio debe estar en expansión o contracción. En este momento, está en expansión.
http://es.wikipedia.org/wiki/Relatividad_general#El_tensor_de_Riemann_y_la_curvatura_de_las_l.C3.ADneas_de_universo http://www.astrocosmo.cl/relativi/relativ-05_05.htm
http://es.wikipedia.org/wiki/Aceleración_de_la_expansión_del_Universo
Por tanto, yendo hacia atrás en el tiempo, el Universo era más pequeño, más caliente y más denso (big bang). En 1965 se detectó la radiación de fondo (microondas) residual a la gran explosión. No tenemos datos para saber como fue el comienzo del universo, salvo que se formó hidrógeno y helio. De todas formas, no existe un momento previo al inicial y por tanto es arbitraria la consideración de las fuerzas que intervinieron en aquel momento cero.
http://es.wikipedia.org/wiki/Radiación_de_fondo_de_microondas
El tiempo es un parámetro de la materia. Cuando comenzó a existir el Universo empezó a existir el tiempo. Por tanto, no hay un "antes" del big bang.
La edad del Universo puede calcularse de varias formas y todas ellas nos llevan a un momento de 13.700 mda.
http://es.wikipedia.org/wiki/TeorÃa_del_Big_Bang
Los planetas rocosos se formaron de restos de supernovas, que en su explosión final generaron el suficiente calor para dar lugar a elementos más pesados que el hierro.
http://es.wikipedia.org/wiki/Masa_atómica
http://es.wikipedia.org/wiki/Supernova
El Universo no puede experimentar un ciclo continuo de expasión - contracción - explosión, ya que cada vez la energía sería mayor y la masa menor y por ello en algún momento se daría un Universo frío y vacío. Contra esta teoría, se han propuesto nuevas astronomías. Si hubiese una unficación de fuerzas, el protón sería inestable a largo plazo y de ello no se han encontrado pruebas. El Universo pudo haber sido al principio pura energía, pero en ese caso la materia y la antimateria deberían estar presentes en forma equivalente y en realidad hay más materia que antimateria. Se han propuesto más ideas de este tipo, como la teoría de la inflación. Todas ellas son matemáticas y no hay evidencias experimentales.
http://es.wikipedia.org/wiki/TeorÃa_del_campo_unificado
http://es.wikipedia.org/wiki/Inflación_cósmica
La teoría de supercuerdas exige que el espacio tenga 9 dimensiones (más el tiempo) y una partícula (bosón de Higgs) mucho más pesada que las conocidas. Carreira no cree que se encuentren evidencias experimientales. Piensa que el problema es metafísico (Carreira es jesuita). Desde este plano metafísico, destaca que cualquier variación en el ajuste de propiedades del Universo habría impedido la vida (principio antrópico). El Universo tiene entonces sentido si se comprende hecho con gran exactitud para el desarrollo de la vida.
http://es.wikipedia.org/wiki/TeorÃa_de_supercuerdas
http://es.wikipedia.org/wiki/Bosón_de_Higgs
http://es.wikipedia.org/wiki/Principio_antrópico
El misterio de la Física actual es que la relatividad de Einstein y la mecánica cuántica son conceptualmente incompatibles. Mientras esto no se consiga tenemos que decir que no entendemos el Universo.
En el turno de preguntas, Carreira nos proporciona una propia teoría para explicar la velocidad creciente en la expansión del Universo: El vacío es materia y tiene características físicas: la constante dieléctrica y la permeabilidad magnética, que podrían haber variado o estar variando, haciendo posible una velocidad de la luz creciente.
http://es.wikipedia.org/wiki/Constante_dieléctrica
http://es.wikipedia.org/wiki/Permitividad
http://es.wikipedia.org/wiki/Permeabilidad_magnética
Acaba la conferencia destacando que la matemática es una construcción humana y no tiene por qué ser isomórfica con la realidad.
Conferencias sobre evolución en este blog:
José Enrique Campillo: alimentación y evolución humanas.
Susan Savage-Rumbaugh: simios que escriben.
lunes, 2 de noviembre de 2009
Gente de San Francisco
¿Sabías que?
domingo, 1 de noviembre de 2009
José Félix de Celis: Avances en Biomedicina utilizando Drosophila
http://biociencias.bq.uam.es/comunes/ProfesorFicha.php?codigo=1049
Esta conferencia, sobre los avances en Biomedicina utilizando Drosophila como organismo modelo, se celebró en el Paraninfo de la Universidad Politécnica de Madrid el 18/03/2009.
http://es.wikipedia.org/wiki/Organismo_modelo
http://es.wikipedia.org/wiki/Drosophila_melanogaster
Todos los seres vivos compartimos origen. Estamos compuestos de células y en ellas hay ADN o ARN. La parte del genoma que contiene información (zonas codificantes) se conserva en las células de diferentes especies no relacionadas. También se conserva el modo de interacción de las moléculas y la regulación de la expresión génica. A todo esto se le ha llamado "caja de herramientas celular".
Dentro de estos elementos conservados, José Félix de Celis pone como ejemplo los genes hox. Estos genes se encuentran conservados desde los artrópodos hasta los vertebrad0s, en los que están presentes cuatro copias de cada gen. También cita el gen del ojo pax6.
http://www.revistanefrologia.com/mostrarfile.asp?ID=242
http://es.wikipedia.org/wiki/Pax_(gen)
http://es.euronews.net/2009/07/28/pax-6-el-gen-responsable-del-desarrollo-del-ojo/
La ventaja de las Drosophila en la investigación es que ofrece varios estados diferentes: larva, pupa, imago. Es además un animal complejo pero en el que es muy fácil inducir y mapear mutaciones. Es barata y con una tasa de reproducción muy alta.
http://html.rincondelvago.com/drosophila-melanogaster_5.html
Aunque no lo parezca, la mosca es parecida a nivel celular y molecular al ser humano y José Félis de Celis pone varios ejemplos: las células epidérmicas del desarrollo de las alas y los miembros, la unión músculo epidermis y huesos, las células musculares, el sistema nervioso incluidas las neuronas, la formación de ramas en el sistema respiratorio, las céluals que realizan la excreción de sustancias tóxicas.
Para la investigación se introducen en la mosca variantes de genes humanos que causan enfermedades y se intenta detectar genes de la mosca que pueden alterar la función de esos genes y en definitiva fabricar proteínas diana que puedan servir para la elaboración de medicamentos.
El tejido con el que más se ha trabajado en la mosca es el ojo, y se han establecido modelos para varias enfermedades como la ataxia espinocerebral, huntington, atrofia muscular espinobulbar, taupatías, alzheimer y parkinson. También se está estudiando el envejecimiento, las repercusiones de la actividad física, el crecimiento y la competición celular (tumores)...