Este artículo tiene varios problemas. Ayúdenos a mejorarlo o a discutir estos problemas en la página de discusión . ( Aprenda cómo y cuándo eliminar estos mensajes )
|
Didier Sornette | |
---|---|
Nacido | (1957-06-25) 25 de junio de 1957 París , Francia |
Nacionalidad | Francés |
Alma máter | Ecole Normale Supérieure , (1977–1981) Universidad de Niza (1980–1985) |
Conocido por | Predicción de crisis y eventos extremos en sistemas complejos, modelado físico de terremotos, física de sistemas complejos y formación de patrones en estructuras espacio-temporales. |
Premios | Premio Nacional de Ciencia y Defensa de Francia 2000 Premio de Investigación McDonnell Premio Risques-Les Echos 2002 por la Predictibilidad de eventos catastróficos |
Carrera científica | |
Campos | Física , geofísica , sistemas complejos , economía , finanzas |
Instituciones | Instituto Federal Suizo de Tecnología de Zúrich , Instituto Suizo de Finanzas , UCLA , CNRS |
Didier Sornette (nacido el 25 de junio de 1957 en París ) es un investigador francés que estudia temas que incluyen sistemas complejos y gestión de riesgos . Es profesor de la Cátedra de Riesgos Empresariales en la Escuela Politécnica Federal de Zúrich (ETH Zúrich) y también es profesor del Instituto Suizo de Finanzas . Anteriormente fue profesor de Geofísica en la UCLA, Los Ángeles, California (1996-2006) y profesor de investigación en el Centro Nacional Francés de Investigación Científica (1981-2006).
Junto con su colaborador de muchos años, el Dr. Guy Ouillon, Sornette ha dirigido un grupo de investigación sobre la “Física de los terremotos” durante los últimos 25 años. El grupo se dedica a la modelización de terremotos, deslizamientos de tierra y otros peligros naturales, combinando conceptos y herramientas de la física estadística, la estadística, la tectónica, la sismología y más. Ubicado primero en el Laboratorio de Física de la Materia Condensada (Universidad de Niza, Francia), luego en el Departamento de Tierra y Espacio (UCLA, EE. UU.), el grupo está ahora en ETH-Zurich (Suiza) desde marzo de 2006.
El grupo ha abordado el problema de la predicción de terremotos y rupturas desde mediados de los años 90 dentro del concepto físico más amplio de fenómenos críticos. [1] Considerando la ruptura como una transición de fase de segundo orden, esto predice que, acercándose a la ruptura, la longitud de correlación espacial de la tensión y el daño aumenta. [2] Esto a su vez conduce a una aceleración de la ley de potencia del momento y la liberación de la deformación, hasta el tiempo de falla macroscópica de la muestra (es decir, un gran terremoto en la naturaleza). Esta predicción se ha verificado en varios datos naturales e industriales/de laboratorio, en un amplio espectro de diferentes escalas (muestras de laboratorio, minas, catálogo de terremotos de California) y bajo diferentes condiciones de carga del sistema (tasa de tensión constante, tasa de deformación constante). La observación más desconcertante es que la aceleración de la tasa crítica de la ley de potencia está decorada por oscilaciones logarítmicas periódicas, lo que sugiere una relación universal cercana a 2,2. La existencia de tales oscilaciones se debe a interacciones entre estructuras sismogénicas (véase más adelante el caso de fallas y fracturas), pero también ofrece una mejor restricción para identificar áreas dentro de las cuales puede ocurrir un gran evento. El concepto de piezoelectricidad crítica en policristales [3] [4] [5] se ha aplicado a la corteza terrestre. [6]
La predicción de terremotos difiere de la predicción en el sentido de que no se emite ninguna alarma, sino que se estima una probabilidad de ocurrencia de terremoto dependiente del tiempo. El grupo de Sornette ha contribuido significativamente al desarrollo teórico y al estudio de las propiedades del ahora estándar modelo de Secuencia de Réplicas de Epidemias de Tipo Epidémico (ETAS). [7] En pocas palabras, este modelo establece que cada evento desencadena sus propias réplicas directas, que a su vez desencadenan sus propias réplicas, y así sucesivamente... La consecuencia es que los eventos ya no pueden etiquetarse como sismos precursores, sismos principales o réplicas, ya que pueden ser todo eso al mismo tiempo (con diferentes niveles de probabilidad). En este modelo, la probabilidad de que un evento desencadene otro depende principalmente de las distancias espaciales y temporales que los separan, así como de la magnitud del evento desencadenante, de modo que la sismicidad se rige entonces por un conjunto de siete parámetros. El grupo de Sornette está llevando actualmente el modelo hasta sus límites al permitir variaciones espaciales y temporales de sus parámetros. [8] A pesar de que este nuevo modelo alcanza mejores puntuaciones de predicción que cualquier otro modelo de la competencia, no es suficiente para lograr predicciones sistemáticas fiables. La razón principal es que este modelo predice las tasas de sismicidad futuras con bastante precisión, pero no pone restricciones a las magnitudes (que se supone que se distribuyen de acuerdo con la ley de Gutenberg-Richter y que son independientes entre sí). Por lo tanto, se requieren otros precursores sísmicos o no sísmicos para mejorar aún más esas predicciones. Según el modelo ETAS, la tasa de actividad desencadenada alrededor de un evento dado se comporta de manera isotrópica. Esta suposición demasiado simplificada se ha relajado recientemente al acoplar las estadísticas de ETAS a información mecánica genuina. Esto se hace modelando la perturbación de tensión debido a un evento dado en sus alrededores y correlacionándola con la tasa espacio-temporal de actividad posterior como una función de la amplitud y el signo de la tensión transferida. Esto sugiere que el desencadenamiento de réplicas se deriva de una combinación de procesos dinámicos (ondas sísmicas) y elastoestáticos. Otro resultado interesante e inequívoco de este trabajo es que la corteza terrestre en el sur de California tiene una memoria bastante corta de las fluctuaciones de estrés pasadas, que duran solo unos 3 a 4 meses. [9] Esto puede poner más restricciones en la ventana de tiempo dentro de la cual se pueden buscar precursores sísmicos y no sísmicos.
Ouillon y Sornette han desarrollado un modelo puramente estadístico de física de la interacción y activación de terremotos, con el objetivo de dar más cuerpo al modelo lineal puramente empírico ETAS. El supuesto básico de este modelo "activado por estrés multifractal" [10] [11] es que, en cualquier lugar y momento, la tasa de falla local depende exponencialmente del estrés aplicado. El segundo ingrediente clave es reconocer que, en la corteza terrestre, el campo de estrés local es la suma del estrés de campo lejano a gran escala debido al movimiento de las placas, más todas las fluctuaciones de estrés debidas a terremotos pasados. A medida que se suman los esfuerzos elásticos, la exponenciación hace que este modelo sea no lineal. Resolverlo analíticamente les permitió predecir que cada evento desencadena algunas réplicas con una tasa que decae en el tiempo de acuerdo con la ley de Omori, es decir, como 1/tp, pero con un giro especial que no se había reconocido hasta ahora. La predicción única del modelo MSA es que el exponente p no es constante (cercano a 1) sino que aumenta linealmente con la magnitud del sismo principal. Se han llevado a cabo análisis estadísticos de varios catálogos (California, Japón, Taiwán, Harvard CMT) para comprobar esta predicción, que se ha confirmado utilizando diferentes técnicas estadísticas (pilas para mejorar la relación señal/ruido, wavelets diseñados específicamente para un análisis multiescala, distribuciones de magnitud extrema, etc.). [12] [13] Este resultado muestra que los pequeños eventos pueden desencadenar un número menor de réplicas que los grandes, pero que su efecto acumulativo puede ser más duradero en la corteza terrestre. También se ha introducido recientemente una nueva técnica, llamada método de masa fija baricéntrica, para mejorar considerablemente la estimación de las estructuras multifractales de la sismicidad espacio-temporal esperada a partir del modelo MSA. [14]
Una parte importante de la actividad del grupo de Sornette también se ha dedicado al modelado de la física estadística, así como a las propiedades de las fracturas y fallas a diferentes escalas. Estas características son importantes ya que pueden controlar diversas propiedades de transporte de la corteza, así como representar los lugares de nucleación sísmica.
Sornette y Sornette (1989) [15] sugirieron considerar los terremotos y la tectónica de placas global como fenómenos críticos autoorganizados. Como las redes de fallas son claramente sistemas críticos autoorganizados en el sentido de que los terremotos ocurren en fallas y las fallas crecen debido a los terremotos, [16] [17] [18] lo que resulta en propiedades jerárquicas, el estudio de sus estadísticas también debería brindar información sobre el proceso sísmico en sí. [19] Davy, Sornette y Sornette [20] [21] [16] [22] introdujeron un modelo de formación de patrones de crecimiento de fallas y mostraron que la existencia de áreas sin fallas es la consecuencia natural de la organización fractal de las fallas. Cowie et al. (1993; 1995) [23] [24] desarrollaron el primer modelo teórico que abarca tanto la organización de largo alcance y tiempo de patrones de fallas fractales complejos como la dinámica de corto tiempo de secuencias de terremotos. Un resultado es la existencia genérica en el modelo de competencia de fallas con actividad intermitente de diferentes fallas. Se muestra que la complejidad geométrica y dinámica de las fallas y los terremotos es el resultado de la interacción entre el caos espacio-temporal y una heterogeneidad inicial apagada sin características. Miltenberger et al. [25] y Sornette et al. (1994) [26] demostraron que la criticidad autoorganizada en los terremotos y las deformaciones tectónicas está relacionada con la sincronización de los osciladores de relajación del umbral. Lee et al. (1999) [27] demostraron la naturaleza intermitente intrínseca de la actividad sísmica en las fallas, que resulta de su competencia para adaptarse a la deformación tectónica. Sornette y Pisarenko (2003) realizaron un análisis estadístico riguroso de la distribución de los tamaños de las placas que participan en la tectónica de placas y demostraron la naturaleza fractal de la tectónica de placas. [28]
Utilizando una colección de mapas centrados en la misma ubicación pero a diferentes escalas en Arabia Saudita (de metros a cientos de kilómetros, es decir, un poco más de cinco décadas), se demostró que las juntas y los patrones de fallas muestran distintas propiedades de escala espacial dentro de distintos rangos de escalas. [29] [30] [31] Estas escalas de transición (que cuantifican la distribución horizontal de las estructuras frágiles) pueden correlacionarse bien con la estratificación mecánica vertical del medio anfitrión (la corteza terrestre). En particular, se puede demostrar que los patrones de fractura son bastante uniformes en escalas inferiores al espesor de la cuenca sedimentaria, y se vuelven heterogéneos y multifractales en escalas mayores. Esos diferentes regímenes se han descubierto mediante el diseño de nuevas técnicas de análisis multifractal (capaces de tener en cuenta el pequeño tamaño de los conjuntos de datos, así como con condiciones de contorno geométricas irregulares), así como mediante la introducción de una nueva técnica basada en el análisis de ondículas anisotrópicas 2D. Al mapear algunas juntas dentro del basamento cristalino en la misma área, se encontró que su organización espacial (distribución de espaciado) mostró una invariancia de escala discreta durante más de cuatro décadas. [32] Utilizando otro conjunto de datos y un modelo teórico, Huang et al. también demostraron que, debido a las interacciones entre estructuras paralelas, la distribución de longitud de las juntas muestra una invariancia de escala discreta. [33]
Motivado por la predicción y el pronóstico de terremotos, el grupo de Sornette también ha contribuido al problema del mapeo de fallas 3D. Dado un catálogo de terremotos con una gran cantidad de eventos, la idea principal es invertir para el conjunto de segmentos planos que mejor se ajuste a este conjunto de datos. [34] [35] Más recientemente, Ouillon y Sornette desarrollaron técnicas que modelan la distribución espacial de eventos utilizando una mezcla de núcleos gaussianos anisotrópicos. [36] Esos enfoques permiten identificar una gran cantidad de fallas que no se mapean con técnicas geológicas/tradicionales porque no ofrecen ninguna firma en la superficie. Esas redes de fallas 3D reconstruidas ofrecen una buena correlación con los mecanismos focales, pero también brindan una ganancia significativa cuando se las usa como proxy de las ubicaciones de los terremotos en experimentos de pronóstico. Como los catálogos pueden ser muy grandes (hasta medio millón de eventos para el sur de California), se ha introducido la técnica de condensación de catálogos, que permite detectar eventos probables que se repiten y deshacerse de esta redundancia. [37]
En 2016, en colaboración con el profesor Friedemann Freund (con John Scoville) en NASA Ames y GeoCosmo, Sornette (con Guy Ouillon) lanzó el Proyecto Global de Pronóstico de Terremotos (GEFS) para avanzar en el campo de la predicción de terremotos. Este proyecto se basa originalmente en la rigurosa física teórica y experimental del estado sólido del profesor Friedemann Freund, [38] [39] cuya teoría es capaz de explicar todo el espectro de fenómenos de tipo electromagnético que se han reportado antes de grandes terremotos durante décadas, si no siglos: cuando se someten rocas a tensiones significativas, se activan electrones y agujeros positivos; estos últimos fluyen a dominios menos estresados del material, generando así corrientes eléctricas a gran escala. Estas, a su vez, inducen anomalías geoeléctricas y geomagnéticas locales, estimulan la emisión infrarroja, la ionización del aire, aumentan los niveles de ozono y monóxido de carbono. Todas esas fluctuaciones se miden actualmente utilizando estaciones terrestres o tecnologías de teledetección . Hay innumerables informes de tipos heterogéneos de fenómenos precursores que van desde la emisión de ondas electromagnéticas de frecuencia ultrabaja (ULF) a luz visible (VIS) y cercana al infrarrojo (NIR), anomalías de campos eléctricos y campos magnéticos de varios tipos (ver más abajo), hasta llegar al comportamiento animal inusual, que se ha reportado una y otra vez.
Las anomalías espaciales y terrestres anteriores y/o contemporáneas a los terremotos incluyen: (Componente satelital) 1. Anomalías infrarrojas térmicas (TIR) 2. Anomalías del contenido electrónico total (TEC) 3. Tomografía ionosférica 4. Turbulencias del campo eléctrico ionosférico 5. Ondas de gravedad atmosférica (AGW) 6. Liberación de CO del suelo 7. Formación de ozono a nivel del suelo 8. Detección VLF de la ionización del aire 9. Rayos mesosféricos 10. Lineamientos en el VIS-NIR;
Componente de la estación terrestre: 1. Variaciones del campo magnético 2. Emisión ULF desde el interior de la corteza terrestre 3. Potenciales de los árboles y potenciales de tierra 4. Cambios en la conductividad del suelo 5. Cambios en la química del agua subterránea 6. Liberación de gases traza desde el suelo 7. Emanación de radón desde el suelo 8. Ionización del aire en la superficie del suelo 9. Propagación VLF/ELF subionosférica 10. Resplandor nocturno
Estas señales precursoras son intermitentes y no parecen ocurrir sistemáticamente antes de cada gran terremoto. Los investigadores no han sido capaces de explicarlas y explotarlas satisfactoriamente, pero nunca en conjunto. Desafortunadamente, no existe un repositorio mundial de tales datos, y esas bases de datos suelen ser subexplotadas utilizando análisis demasiado simplistas o descuidando las correlaciones cruzadas entre ellas (la mayoría de las veces porque esos datos son adquiridos y poseídos por instituciones distintas y competidoras). El GEFS se presenta como una iniciativa revolucionaria con los siguientes objetivos: (i) iniciar colaboraciones con muchos centros de datos en todo el mundo para unificar competencias; (ii) proponer una plataforma colaborativa (InnovWiki, desarrollada en ETH Zürich) para desarrollar un mega repositorio de datos y herramientas de análisis; (iii) desarrollar y probar rigurosamente algoritmos multivariados de alta dimensión y en tiempo real para predecir terremotos (ubicación, tiempo y magnitud) utilizando todos los datos disponibles.
En 2004, Sornette utilizó los datos de ventas de Amazon.com para crear un modelo matemático para predecir el potencial de éxito de ventas basado en resultados de ventas muy tempranos. [40] [41] [42] Esto se desarrolló aún más para caracterizar la dinámica del éxito de los videos de YouTube. [43] Esto proporciona un marco general para analizar las propiedades precursoras y posteriores de los shocks y las rupturas en las finanzas, la ruptura material , los terremotos y las ventas de amazon.com: su trabajo ha documentado leyes de potencia ubicuas similares a la ley de Omori en sismología que permiten distinguir entre shocks externos y autoorganización endógena . [44]
Junto con sus colaboradores, Sornette ha contribuido ampliamente a la aplicación y generalización de la función logística (y su ecuación). Las aplicaciones incluyen pruebas de caos del mapa logístico discreto, [45] [46] un enfoque endo-exo para la clasificación de enfermedades, [47] [48] la introducción de retroalimentación retardada de la población sobre la capacidad de carga para capturar la evolución puntuada, [49] [50] la simbiosis, [51] [52] [53] modelos dinámicos deterministas de cambio de régimen entre convenciones y ciclos económicos en sistemas económicos, [54] [55] el modelado de burbujas que colapsan periódicamente, [56] interacciones entre varias especies a través de las dependencias mutuas de sus capacidades de carga. [57]
Otra aplicación es una metodología para determinar el valor fundamental de las empresas del sector de las redes sociales, como Facebook, Groupon, LinkedIn Corp., Pandora Media Inc, Twitter, Zynga y, más recientemente, la cuestión de qué justifica los valores desorbitados de las empresas unicornio (financieras) . La idea clave propuesta por Cauwels y Sornette [58] es que los ingresos y las ganancias de una empresa de redes sociales están inherentemente vinculados a su base de usuarios a través de un canal directo que no tiene equivalente en otros sectores; el crecimiento del número de usuarios se puede calibrar con modelos de crecimiento logístico estándar y permite extrapolaciones fiables del tamaño del negocio en horizontes temporales largos. Con su estudiante de doctorado, han aplicado esta metodología a la valoración de Zynga antes de su IPO y han demostrado su valor presentando previsiones ex ante que conducen a una estrategia comercial exitosa. [59] Una aplicación reciente del boom de los llamados “unicornios”, nombre que reciben las start-ups valoradas en más de 1.000 millones de dólares, como Spotify y Snapchat, se encuentra en esta tesis de máster. [60]
Ha contribuido con modelos teóricos, pruebas empíricas de detección e implementación operativa de pronósticos de burbujas financieras . [61] [62] [63] [64]
Al combinar (i) la teoría económica de las burbujas de expectativas racionales, (ii) las finanzas conductuales sobre la imitación y el control de los inversores y comerciantes y (iii) la física matemática y estadística de las bifurcaciones y las transiciones de fase, ha sido pionero en el modelo de singularidad de ley de potencia log-periódica (LPPLS) de burbujas financieras. El modelo LPPLS considera el aumento más rápido que el exponencial (ley de potencia con singularidad de tiempo finito) en los precios de los activos decorado por oscilaciones aceleradas como el principal diagnóstico de las burbujas. [65] Encarna el efecto de los bucles de retroalimentación positiva de las anticipaciones de mayor rendimiento que compiten con las espirales de retroalimentación negativa de las expectativas de choque. El modelo LPPLS fue propuesto por primera vez en 1995 para predecir el fallo de los tanques de presión críticos embarcados en el cohete europeo Ariane [66] y como una formulación teórica de la liberación del momento de aceleración para predecir terremotos. [67] El modelo LPPLS fue propuesto luego para ser aplicado también a modelos de burbujas financieras y su estallido por Sornette, Johansen y Bouchaud [68] e independientemente por Feigenbaum y Freund. [69] La analogía formal entre rupturas mecánicas, terremotos y crisis financieras fue refinada aún más dentro del marco de la burbuja de expectativas racionales de Blanchard y Watson [70] por Johansen, Ledoit y Sornette. [71] [72] Este enfoque ahora es referido en la literatura como el modelo JLS. Recientemente, Sornette ha agregado la S al acrónimo LPPL de "ley de potencia logarítmica periódica" para dejar en claro que la parte de "ley de potencia" no debe confundirse con distribuciones de ley de potencia : de hecho, la "ley de potencia" se refiere a la singularidad hiperbólica de la forma , donde es el logaritmo del precio en el momento , y es el momento crítico del fin de la burbuja.
En agosto de 2008, en reacción a la afirmación, entonces generalizada, de que la crisis financiera no podía haberse previsto, una opinión que él ha combatido vigorosamente, [73] creó el Observatorio de la Crisis Financiera. [74] El Observatorio de la Crisis Financiera (FCO) es una plataforma científica destinada a probar y cuantificar rigurosamente, de manera sistemática y a gran escala la hipótesis de que los mercados financieros exhiben un grado de ineficiencia y un potencial de previsibilidad, especialmente durante regímenes en los que se desarrollan burbujas. El FCO evolucionó desde análisis ex post de muchas burbujas y colapsos históricos a predicciones ex ante previas y continuas de los riesgos de burbujas antes de que ocurrieran realmente (incluida la burbuja inmobiliaria estadounidense que terminó a mediados de 2006, [75] la burbuja petrolera que estalló en julio de 2008, [76] las burbujas del mercado de valores chino [77] [78] ).
El FCO también puso en marcha un proyecto (denominado "experimento de burbuja financiera") de informes ex ante de las burbujas, en el que se publicaba en Internet la clave de autenticación digital de un documento con las previsiones. El contenido del documento sólo se publicaba una vez que el acontecimiento había pasado para evitar cualquier posible impacto de la publicación de la predicción ex ante en el resultado final. Además, se aplicaba una transparencia total mediante un único canal de comunicación. [79] [80] [81]
Desde octubre de 2014, publica cada mes con su equipo un informe sobre el estado de las burbujas a escala mundial, el FCO Cockpit, que analiza la evolución histórica de las burbujas en y entre diferentes clases de activos y geografías. Es el resultado de un análisis exhaustivo realizado sobre las series históricas de aproximadamente 430 activos sistémicos y 835 acciones individuales en todo el mundo. Los activos sistémicos son índices de bonos, acciones y materias primas y una selección de pares de divisas. Las acciones individuales son principalmente acciones estadounidenses y europeas. Los informes mensuales del FCO Cockpit suelen dividirse en dos partes: la primera parte presenta el estado del mundo, basado en el análisis de los activos sistémicos, incluidos los índices de acciones y bonos, las divisas y las materias primas; la segunda parte se centra en el comportamiento de las burbujas de las acciones individuales mediante el cálculo de los indicadores de alerta de burbujas, así como dos indicadores de solidez financiera, que indican el valor fundamental de la acción y la capacidad de crecimiento respectivamente. Las acciones son componentes de los índices Stoxx Europe 600, S&P 500 y Nasdaq 100. Estos indicadores proporcionan una clasificación de las acciones en cuatro cuadrantes: Cuadrante 1: Acciones con una fuerte puntuación de burbuja positiva y una fuerte puntuación de valor; Cuadrante 2: Acciones con una fuerte puntuación de burbuja positiva y una débil puntuación de valor; Cuadrante 3: Acciones con una fuerte puntuación de burbuja negativa y una débil puntuación de valor; Cuadrante 4: Acciones con una fuerte puntuación de burbuja negativa y una fuerte solidez financiera. Estos cuatro cuadrantes se utilizan para construir cuatro carteras de referencia cada mes y se siguen para comprobar su rendimiento. El objetivo es establecer un largo historial para seguir poniendo a prueba las hipótesis del FCO.
Inspirados por la investigación de Ernst Fehr y sus colaboradores, Darcet y Sornette propusieron que la paradoja de la cooperación y el altruismo humanos (sin parentesco, reciprocidad directa o indirecta) surge naturalmente por un mecanismo de selección de retroalimentación evolutiva. [82] La ecuación de contabilidad de costo-beneficio generalizada correspondiente ha sido probada y apoyada por simulaciones de un modelo basado en agentes que imita la presión de selección evolutiva de nuestros antepasados: [83] [84] comenzando con una población de agentes sin propensión a la cooperación y al castigo altruista, reglas simples de selección por supervivencia en grupos que interactúan conducen al surgimiento de un nivel de cooperación y castigo altruista de acuerdo con los hallazgos experimentales. [85]
Estimulado por el libro de Roy Baumeister Is There Anything Good About Men?: How Cultures Flourish by Exploiting Men (Oxford University Press; 2010), junto con su estudiante de doctorado, M. Favre, Sornette desarrolló un modelo muy simple basado en agentes que vincula cuantitativamente varios datos improbables, como las diferencias entre hombres y mujeres, el tiempo transcurrido hasta nuestros antepasados comunes más recientes y las diferencias de género en las proporciones de antepasados de la población humana actual. La cuestión de si los hombres y las mujeres son innatamente diferentes ha ocupado la atención y la preocupación de los psicólogos durante más de un siglo. La mayoría de los investigadores suponen que la evolución contribuyó a dar forma a las diferencias innatas, presumiblemente por medio del éxito reproductivo. Por lo tanto, en la medida en que las contingencias reproductivas fueron diferentes para hombres y mujeres, las consecuencias psicológicas y las adaptaciones derivadas de la selección natural diferirían según el género. Por esa razón, la nueva información sobre las diferencias de género en el éxito reproductivo en nuestro pasado biológico es valiosa. Favre y Sornette demostraron que el costo de inversión altamente asimétrico para la reproducción entre machos y hembras, el papel especial de las hembras como únicas portadoras de hijos, junto con una alta heterogeneidad de las aptitudes de los machos impulsada por la presión selectiva de las hembras, fue suficiente para explicar cuantitativamente el hecho de que la actual población humana de la Tierra descendía de más hembras que machos, en una proporción de aproximadamente 2:1 [86] , con sin embargo una amplia distribución de valores posibles (la proporción 2:1 es la mediana en el conjunto de poblaciones simuladas por Favre y Sornette).
Para describir la sociabilidad inherente del Homo Sapiens, el profesor de antropología de la UCLA, Alan Fiske , ha teorizado que todas las interacciones humanas pueden descomponerse en sólo cuatro "modelos relacionales", o formas elementales de relaciones humanas: compartir comunal, clasificación de autoridad, igualación de equidad y fijación de precios de mercado (a estos se agregan los casos límite de interacciones asociales y nulas, por las cuales las personas no se coordinan con referencia a ningún principio compartido). [87] Con M. Favre, Sornette introdujo el modelo más simple de interacciones sociales diádicas y estableció su correspondencia con la teoría de modelos relacionales (RMT) de Fiske. [88] Su modelo se basa en la observación de que cada individuo en una interacción diádica puede hacer lo mismo que el otro individuo, una cosa diferente o nada en absoluto. Las relaciones generadas por esta representación se agregan en seis categorías exhaustivas y disjuntas que coinciden con los cuatro modelos relacionales, mientras que las dos restantes corresponden a las interacciones asociales y nulas definidas en RMT. El modelo puede generalizarse a la presencia de N acciones sociales. Este mapeo permite inferir que los cuatro modelos relacionales forman un conjunto exhaustivo de todas las posibles relaciones diádicas basadas en la coordinación social, explicando así por qué podrían existir sólo cuatro modelos relacionales.
Ha desarrollado la teoría del rey dragón de los eventos extremos. [89] [90] El término "reyes dragones" (DK) encarna una doble metáfora que implica que un evento es extremadamente grande (un "rey" [91] ), y nacido de orígenes únicos ("dragón") en relación con sus pares. La hipótesis presentada en [92] es que los eventos DK son generados por mecanismos distintos que amplifican intermitentemente los eventos extremos, lo que lleva a la generación de desastres descontrolados, así como oportunidades extraordinarias en el lado positivo. Formuló la hipótesis de que los DK podrían detectarse de antemano mediante la observación de signos precursores asociados. [93] [94]
Junto con Monika Gisler, introdujo la hipótesis de la burbuja social [95] de una forma que puede analizarse metódicamente: [96] [ 97] [98] [99] las fuertes interacciones sociales entre los entusiastas partidarios de una idea/concepto/proyecto tejen una red basada en retroalimentaciones positivas , que conducen a un amplio respaldo y un compromiso extraordinario por parte de los involucrados en el proyecto respectivo más allá de lo que se racionalizaría mediante un análisis de costo-beneficio estándar . [100] Sin embargo, la hipótesis de la burbuja social no establece ningún sistema de valores , a pesar del uso del término "burbuja", que a menudo se asocia con un resultado negativo. Más bien, identifica los tipos de dinámicas que dan forma a los esfuerzos científicos o tecnológicos. En otras palabras, según la hipótesis de la burbuja social, los proyectos importantes en general proceden a través de un mecanismo de burbuja social. En otras palabras, se afirma que la mayoría de las innovaciones disruptivas pasan por una dinámica de burbuja social de este tipo.
La hipótesis de la burbuja social está relacionada con la famosa destrucción creativa de Schumpeter y con el “cambio de paradigma económico tecnológico” de la economista social Carlota Pérez [101] [102], quien estudia las burbujas como antecedentes de los “cambios de paradigma tecnoeconómicos”. Basándose en su experiencia profesional como capitalista de riesgo, William H. Janeway destaca de manera similar el papel positivo de las burbujas de activos en la financiación de las innovaciones tecnológicas. [103]
Junto con su colega ruso, VI Yukalov, introdujo la "teoría de la decisión cuántica" [104] , con el objetivo de establecer un marco teórico holístico de la toma de decisiones. Basada en las matemáticas de los espacios de Hilbert , abarca la incertidumbre y disfruta de una probabilidad no aditiva para la resolución de situaciones de elección complejas con efectos de interferencia. El uso de los espacios de Hilbert constituye la generalización más simple de la teoría de la probabilidad axiomatizada por Kolmogorov [105] para probabilidades de valor real a probabilidades derivadas de la teoría algebraica de números complejos. Por su estructura matemática, la teoría de la decisión cuántica pretende abarcar los procesos de superposición que ocurren hasta el nivel neuronal. Numerosos patrones de comportamiento, incluidos los que causan paradojas dentro de otros enfoques teóricos, se explican coherentemente mediante la teoría de la decisión cuántica [104] .
La versión de la teoría de la decisión cuántica (QDT) desarrollada por Yukalov y Sornette difiere principalmente de todos los demás enfoques mencionados en dos aspectos. En primer lugar, la QDT se basa en una base matemática autoconsistente que es común tanto para la teoría de la medición cuántica como para la teoría de la decisión cuántica. Partiendo de la teoría de las mediciones cuánticas de von Neumann (1955), [106] Yukalov y Sornette la han generalizado al caso de eventos inciertos o no concluyentes, lo que hace posible caracterizar mediciones inciertas y perspectivas inciertas. En segundo lugar, las fórmulas principales de la QDT se derivan de principios generales, lo que brinda la posibilidad de realizar predicciones cuantitativas generales.
Junto con Wei-Xing Zhou, introdujo el método de la "ruta óptima térmica" como método para cuantificar la evolución dinámica de las estructuras de adelanto-retraso entre dos series temporales. El método consiste en construir una matriz de distancias basada en la correspondencia de todos los pares de datos de muestra entre las dos series temporales, como en los gráficos de recurrencia . Luego, se busca la estructura de adelanto-retraso como la ruta óptima en el paisaje de la matriz de distancias que minimiza el desajuste total entre las dos series temporales y que obedece a una condición de correspondencia causal uno a uno. El problema se resuelve matemáticamente mediante técnicas de matriz de transferencia, haciendo coincidir el método TOP con el problema de los polímeros dirigidos aleatorios que interactúan con sustratos aleatorios. Las aplicaciones incluyen el estudio de las relaciones entre la inflación, el cambio de inflación, la tasa de crecimiento del PIB y la tasa de desempleo, [107] [108] las volatilidades de la tasa de inflación de EE. UU. versus las tasas de crecimiento económico, [109] el mercado de valores de EE. UU. versus la tasa de fondos federales y los rendimientos de los bonos del Tesoro [110] y las políticas inmobiliarias del Reino Unido y EE. UU. versus las políticas monetarias. [111]
Recientemente se ha introducido una mejora del TOP, denominada TOPS (camino térmico óptimo simétrico), [111] que complementa al TOP al imponer que la relación adelanto-retraso debe ser invariante con respecto a una inversión temporal de la serie temporal después de un cambio de signo. Esto significa que, si "X viene antes que Y", esto se transforma en "Y viene antes que X" bajo una inversión temporal. El enfoque TOPS enfatiza la importancia de tener en cuenta el cambio de regímenes, de modo que piezas de información o políticas similares pueden tener impactos y desarrollos drásticamente diferentes, condicionados a las condiciones económicas, financieras y geopolíticas.
En 2015, en reacción a la extraordinaria presión sobre el franco suizo y al debate general de que un franco suizo fuerte es un problema para Suiza, introdujo la proposición contraria de que un franco suizo fuerte es una oportunidad extraordinaria para Suiza. Sostiene que el franco suizo fuerte es el surgimiento (en el sentido de sistemas adaptativos complejos ) de las cualidades agregadas de Suiza, sus sistemas políticos, su infraestructura, su organización y ética del trabajo, su cultura y mucho más. Propone "minar" francos suizos para estabilizar el tipo de cambio frente al euro hasta un consenso económico y político (que podría rondar los 1,20-1,25 CHF por euro) y comprar tantos euros y dólares como sea necesario para ello. Los ingresos se reinvertirán en un Fondo Soberano Suizo, que podría alcanzar un tamaño de un billón de euros o más, según las estrategias utilizadas por el fondo soberano noruego, los fondos soberanos de Singapur y los fondos de dotación de universidades como Harvard o Stanford. Se puede encontrar una versión completa en inglés y una presentación en [1]. Un resumen de los argumentos fue presentado en los medios de comunicación de habla alemana [112] [2].
{{cite journal}}
: CS1 maint: multiple names: authors list (link){{cite journal}}
: CS1 maint: multiple names: authors list (link){{cite journal}}
: CS1 maint: multiple names: authors list (link){{cite journal}}
: CS1 maint: multiple names: authors list (link){{cite journal}}
: CS1 maint: multiple names: authors list (link){{cite journal}}
: CS1 maint: multiple names: authors list (link){{cite journal}}
: CS1 maint: multiple names: authors list (link){{cite journal}}
: CS1 maint: multiple names: authors list (link){{cite journal}}
: CS1 maint: multiple names: authors list (link){{cite journal}}
: CS1 maint: multiple names: authors list (link){{cite journal}}
: CS1 maint: multiple names: authors list (link){{cite journal}}
: CS1 maint: multiple names: authors list (link){{cite journal}}
: CS1 maint: multiple names: authors list (link){{cite journal}}
: CS1 maint: multiple names: authors list (link){{cite journal}}
: Requiere citar revista |journal=
( ayuda ){{cite journal}}
: CS1 maint: multiple names: authors list (link){{cite journal}}
: CS1 maint: multiple names: authors list (link)