Estratti da:

The present and future reliability of the LaRouche-Riemann model’s U.S. forecast,
di Lyndon H. LaRouche, Jr., Executive Intelligence Review, Vol. 10, N. 5, February 8th, 1983

Il metodo LaRouche-Riemann di previsione analitica è fondato su ciò che il Ministro del Tesoro di George Washington, Alexander Hamilton, per primo definì ufficialmente “Sistema Americano di Economia Politica”. Il Sistema Americano, istituito come avversario diretto dei dogmi britannici di economia politica proposti da Adam Smith, Thomas Malthus e David Ricardo, gettò le basi per l’imponente sviluppo degli Stati Uniti e per la politica economica adottata durante la cosiddetta Restaurazione Meiji, in Giappone. Il Giappone oggi ha in questo un’efficacia maggiore degli Stati Uniti: questo è soprattutto un risultato del fatto che la pratica economica giapponese è fortemente influenzata dal Sistema Americano, mentre l’economia americana è stata corrotta da overdosi di sistema britannico.

Il Sistema Americano fu importato nei giovani Stati Uniti dai circoli attivi attorno a Benjamin Franklin. L’influsso principale sulle Americhe era quello del mercantilismo francese, ma di quella varietà che incorporava la scoperta e lo sviluppo della scienza economica (a partire dal 1671) da parte di W. G. Leibniz. Il Sistema Americano era dunque coerente con le caratteristiche essenziali dell’economia politica della École Polytéchnique diretta da Lazare Carnot e del pensiero economico di Claude Chaptal e Charles A. Dupin. Dopo gli effetti disastrosi delle Amministrazioni di Jefferson e Madison, che portarono alla rovina l’economia e la difesa nazionale degli Stati Uniti attenendosi ad Adam Smith, il Sistema Americano fu resuscitato dalla presidenze di James Monroe e John Quincy Adams, sotto l’influsso di uno stretto collaboratore di Benjamin Franklin, il cittadino di Filadelfia Mathew Carey. Attraverso i canali della Società dei Cincinnati, specialmente tramite il Marchese di Lafayette, si ebbero di ritorno anche in Francia e Germania alcuni sviluppi della scienza economica e della tecnologia, sviluppi che si fusero con alcuni aspetti dell’economia politica del Sistema Americano, come il contributo di Sylvanus Thayer nell’Accademia militare di West Point. Il tedesco-americano Friedrich List, architetto del miracolo economico tedesco del XIX secolo, fu uno stretto collaboratore di Lafayette e di Carey, così come fu un esperto conoscitore delle opere di Chaptal e Dupin. Quale tempo dopo, Henry C. Carey, il figlio di Mathew Carey divenuto principale consigliere economico di Abramo Lincoln, assurse ai ranghi di Hamilton, Carey padre e Friedrich List, come più celebre esponente del Sistema Americano. Fu principalmente attraverso il suo collaboratore Pechine Smith che fu introdotto in Giappone il germe del miracolo economico del Sistema Americano.

Se includiamo Leibzniz tra i fondatori del Sistema Americano, chi scrive non ha aggiunto altro alla scienza economica, che non fosse già stato stabilito in termini di principio, dalle suddette autorità. Il metodo LaRouche-Riemann rappresenta, in modo predominante, la soluzione efficace apportata da chi scrive alle principali limitazioni interne al primo progetto di Sistema Americano. Egli ha scoperto, a partire dal 1952, che un approccio fondato sulla fisica matematica del grande Bernhard Riemann permette di dominare il problema ancora irrisolto di mettere a nudo la connessione tra gli avanzamenti tecnologici e gli incrementi del tasso potenziale di crescita economica.

[…]

La decisione di procedere con lo sviluppo di un sistema informatico di previsione trimestrale fu presa durante i primi di dicembre 1978, nel corso di due seminari a New York. Il tema di quei seminari era il raffronto tra i progressi americani e sovietici nella ricerca sulla fisica relativistica. Un sottoprodotto di quelle discussioni fu proprio la decisione di produrre previsioni economiche con tale periodicità.

Il punto principale di quei seminari fu l’evidente incapacità sia da parte degli Stati Uniti sia da parte di circoli sovietici di comprendere il significato della connessione tra la tesi di abilitazione di Bernhard Riemann (1854) e il suo celebre articolo del 1859 sulle onde d’urto, nonostante l’importanza assunta da quest’ultimo scritto nello sviluppo della bomba H. In questo contesto nacquero le previsioni secondo il metodo LaRouche-Riemann.

Il metodo di previsione analitica richiede la costruzione di una specie di funzione potenziale, nella quale tutte le trasformazioni cruciali dei processi economici sono matematicamente comprese in forma di generazione di “onde d’urto”, una generazione analoga alla generazione delle “bombe soniche” previste nello scritto riemanniano del 1859. È possibile comprendere in modo appropriato il significato di quest’ultimo metodo se l’opera del 1859 viene pensata come un prodotto del programma esposto brevemente nella tesi di abilitazione di cinque anni prima.

[…]

Il problema di cui soffriva la comunità degli scienziati americani (e anche quella sovietica, almeno in larga misura) è che durante gli anni Sessanta del XIX secolo e dopo, fu condotto un forte e crescente attacco per sradicare l’influsso di Riemann nella pratica e nell’insegnamento della scienza. Quegli attacchi furono scagliati dai seguaci di LaPlace e Cauchy in Francia, dai circoli influenzati da Vienna come quelli di Kronecker, Dedekind e Helmholtz in Germania e, in misura più decisa e aggressiva, dal gruppo degli “Apostoli” nella britannica Università di Cambridge. Dall’inizio della sua carriera scientifica fino alla sua uscita di scena dalla scienza alla metà degli anni Venti del XX secolo, il lavoro di Bertrand Russell all’interno dei limiti nominali della matematica fu interamente consacrato al tentativo di distruggere l’influenza di Riemann, Georg Cantor e Felix Klein. Così, benché Minkowski, Einstein e altri adottarono una versione in qualche modo riduttiva (corrotta) di Riemann per sviluppare la fisica relativistica, e benché lo sviluppo del volo supersonico, del volo extra-atmosferico e della bomba H impose la riscoperta dello scritto riemanniano del 1859, il suo lavoro fu tollerato solo come un’eccezione nei programmi di insegnamento universitari e in altre aree correlate. Egemonica è la fazione fedele a Newton, Cauchy e Maxwell, nemica giurata di Riemann, sia nell’insegnamento sia nelle professioni prevalenti oggi. Ciò ha costituito un disastroso potenziale impedimento del progresso in certi rami dell’attività economica degli odierni Stati Uniti, un disastro incorporato nelle opinioni fanaticamente anti-riemanniane espresse da George Keyworth, consigliere scientifico del Presidente, un prodotto della “Fazione Oppenheimer” presso i Laboratori di Los Alamos.

[…]

Il progetto del dicembre 1978 ebbe due caratteristiche principali interdipendenti. La prima era quella di tradurre il metodo analitico dell’autore nella forma di un insieme di vincoli adatti alle operazioni del calcolatore elettronico. La seconda era la specificazione che tutte le “trasformazioni non lineari” fossero comprese matematicamente dal punto di vista dello scritto riemanniano sulle “onde d’urto”.

[…]

Considerati i limiti nell’applicare correttamente il metodo in forma di algoritmo, occorrono degli ovvi miglioramenti significativi della fisica matematica al fine di permettere modi più avanzati di previsione implicati dal progetto. Per diversi anni abbiamo condotto ricerche su due continenti, anche di materiale di rilievo assai poco noto e sepolto negli archivi, con lo scopo di avvicinarsi al punto in cui potessero essere risolte alcune considerazioni più sofisticate. [*]

Nell’ottobre 1979, immediatamente dopo l’introduzione delle politiche di Paul Volcker da parte del Presidente Jimmy Carter, chi scrive chiese ai suoi collaboratori di accelerare le ricerche, per arrivare a stimare la velocità con cui quelle politiche avrebbero portato alla depressione economica generale. Nonostante i limiti dell’approssimazione incorporati nell’algoritmo, la previsione del novembre 1979 si dimostrò la più accurata previsione di breve termine mai fatta. La previsione a medio termine prodotta in concomitanza e pubblicata nel primo trimestre del 1980 previde accuratamente la sequenza e i periodi temporali degli sviluppi fino all’ultimo trimestre del 1981.

[…]

[*] Si veda anche Che cosa sono le onde d’urto economiche? e Un modello topologico di onde d’urto per la generazione di particelle elementari. La tesi immediata di Tennenbaum sul tema delle onde d’urto è sottolineata nella prefazione. Anche se chi scrive richiede una generazione conica dello spazio-tempo, che non è quella cilindrica proposta da Tennenbaum in quello scritto, devono essere enfatizzati due significati di quel trattamento della relatività speciale di Minkowski. Il primo è che si tratta di un esercizio pedagogico che rende adeguatamente il senso della ricerca, ricorrendo all’esempio più semplice della geometria cilindrica. Il secondo, ma più importante, è che corregge Minkowski eliminando il paradosso campo-particella dal suo schema e ricollocando le concezioni di Minkowski all’interno dello spazio riemanniano. L’obiettivo di questo lavoro matematico è di arrivare a un’appropriata teoria quantistica delle onde d’urto economiche, trattando i salti [discontinuità] delle onde d’urto come salti da un insieme armonico (“kepleriano”) di valori a un altro insieme armonico di valori, come è implicito nell’opera di E. Schrödinger e di A. Sommerfeld sulle relazioni quantistiche. Ciò è consistente con la descrizione di M. Planck del proprio lavoro, un lavoro che ha implicazioni generali per la fisica relativistica, senza restrizioni alla microfisica. La questione importante per noi è: quali caratteristiche deve assumere lo stanziamento di limitate risorse di investimento nello sviluppo di tecnologie avanzate, tali da poter anticipare con la necessaria efficacia la quantità di tale concentrazione di investimento che è richiesta per generare un effetto d’onda d’urto economica? Ciò richiede, naturalmente, uno studio empirico di processi di questo genere [riscontrabili] nelle economie reali; tuttavia, abbiamo bisogno della teoria generale con cui informare l’analisi di tali dati empirici.