Lyndon H. LaRouche, Jr.,
da Executive Intelligence Review, Vol. 9, N. 47, December 7, 1982

È ora noto ai governi del mondo che il metodo LaRouche-Riemann di previsione economica si è dimostrato negli ultimi anni l’unica forma competente di previsione dello stato dell’economia americana documentata pubblicamente. Nello stesso periodo pluriennale, è cioè dall’ottobre del 1979, le altre previsioni, compresa quella del governo americano, quella di Wharton, la Chase Econometrics, la Data Resources, si sono dimostrate consistentemente errate, rasentando l’assurdità.

Il fatto gustoso è che, in tutti gli aspetti tranne due, il metodo LaRouche-Riemann di analisi economica è matematicamente il più semplice in assoluto, tra quelli di analisi e previsione in uso. L’esperienza mostra che le persone con un’istruzione ingegneristica e scientifica possono cogliere molto rapidamente la maggior parte dei princìpi essenziali utilizzati nel “modello” di riferimento per le applicazioni al calcolatore. È dimostrato anche che una persona intelligente può gestire la maggior parte dei princìpi attraverso uno studio equivalente a un corso universitario della durata di un semestre.

I due aspetti che possono causare delle difficoltà anche tra i fisici più capaci sono: la prima, la definizione rigorosa della rappresentazione matematica del “potenziale” adottata nella previsione analitica; la seconda, una diffusa mistificazione, anche tra molti fisici, della nozione di onda d’urto idrodinamica, nozione che risulta essere la seconda caratteristica decisamente sofisticata del modello.

Entrambe queste concezioni fisiche decisamente sofisticate possono essere descritte in modo competente nel linguaggio della strada. Lo spieghiamo nelle righe che seguono. Cominciamo con un’ampia descrizione della natura delle “onde d’urto”. Quindi procederemo con un’esposizione dell’ABC della teoria del potenziale. Infine integreremo le due nozioni, identificando il tipo di ruolo che le due nozioni combinate assumono nel metodo LaRouche-Riemann di previsione economica.

L’ABC delle onde d’urto

I miei amici e collaboratori, il dott. Jonathan Tennenbaum e Ralf Schauerhammer, hanno fatto ricorso all’abilità artigianale di un amico per costruire un semplice modello geometrico plastico della generazione di un’onda d’urto idrodinamica. Dovevano presentarmelo per il mio sessantesimo compleanno, e fu pronto solo un po’ più tardi, con mia grande delizia (Figura 1). Ho chiesto a Tennenbaum e Schauerhammer di presentarlo in occasione della recente conferenza dell’International Caucus of Labor Commitees, per sostenere la mia opera di demistificazione dell’articolo del 1859 del grande fisico Bernhard Riemann, “Sulla propagazione delle onde piane di ampiezza finita”, l’opera che costituisce la caratteristica matematica cruciale del metodo di previsione LaRouche-Riemann.

OndaUrtoEconomica_Figura01

Prendiamo ad esempio il tipo più semplice di onda idrodinamica, un’onda sinusoidale. Possiamo costruirla nel modo più utile disegnando una spirale logaritmica sulla superficie esterna di un cilindro trasparente (per es. in plastica) e osservare la costruzione risultante da un lato [in proiezione ortogonale, NdT] (Figura 2).

OndaUrtoEconomica_Figura02

Nelle scuole, sarebbe meglio che gli insegnanti demistificassero queste rappresentazioni ricorrendo proprio a spirali disegnate su cilindri e coni e che gli studenti imparassero a pensare le onde piane e le spirali bidimensionali nei termini delle proiezioni piane di costruzioni solide del genere. Con l’aiuto di simili approcci, fondati sul programma di insegnamento elaborato da Jakob Steiner per insegnare la geometria sintetica, evitiamo quella mistificazione delle funzioni complesse, ch’è letale per la mente, e che si verifica quando tali funzioni vengono presentate da un punto di vista pedagogico cartesiano ovvero non geometrico, algebrico.

Al fine di descrivere geometricamente le funzioni d’onda d’urto concentriamo ora la nostra attenzione sulla mezza onda, cioè corrispondente al mezzo ciclo, come hanno fatto Tennenbaum et al. nella realizzazione del plastico delle funzione riemanniana (Figura 1).

Per quanto ne sappiamo, Leonardo da Vinci fu il primo a scoprire e a provare sperimentalmente il principio fondamentale della idrodinamica qui chiamato in causa. In prima approssimazione, nello studio del moto ondoso in idrodinamica, cominciamo con il caso in cui un’onda, come quella sinusoidale, si muove attraverso la superficie dell’acqua, ma senza muovere l’acqua nella direzione longitudinale alla propagazione dell’onda piana. In altre parole, mentre l’onda passa lungo la superficie dell’acqua lateralmente, muove l’acqua su e giù in verticale, ma non in avanti. In altre parole, riconosciamo l’esistenza delle condizioni tali che un’onda si muove idrodinamicamente nell’universo senza muovere la materia nella direzione del movimento longitudinale dell’onda.

Ricordiamo la nostra esperienza, in riva al mare, a osservare le onde che si muovono verso la spiaggia, che formano i cavalloni mentre l’onda si avvicina alla riva (per esempio). Nel caso in cui vi è moto nello stesso verso del movimento laterale dell’onda attraverso la superficie dell’acqua (per esempio), come avviene esattamente questo movimento longitudinale all’interno dell’onda? Il plastico costruito da Tennenbaum et al. mostra in principio come ciò accada.

Chiamiamo questo movimento longitudinale un movimento “verso la spiaggia”. In quale parte dell’onda accade la parte di movimento verso la spiaggia più grande in senso relativo? In breve, alla base dell’onda, il cambiamento di movimento relativo verso la spiaggia all’interno dell’onda approssima lo zero, mentre il massimo incremento di movimento verso la spiaggia si verifica sulla cresta dell’onda. La velocità di movimento relativo verso la spiaggia cresce da zero fino al massimo valore mentre noi scorriamo con lo sguardo lo spazio interessato dall’onda fino alla sua cresta (Figura 3).

Lo stesso è dimostrato nel plastico della Figura 1.

OndaUrtoEconomica_Figura03

Nello spiegare questo agli scolari, o ad altri principianti nello studio di questi temi, illustriamo il nostro pensiero generale con l’aiuto di verità approssimate. Diciamo che la nostra introduzione all’idea dell’idrodinamica comincia con le osservazioni e gli esperimenti su un fluido approssimativamente incomprimibile, l’acqua. Una volta acquisita la pratica con alcune caratteristiche fondamentali del comportamento idrodinamico dell’acqua, torniamo a guardarci intorno e scopriamo casi nei quali anche altri mezzi si comportano in accordo con questi princìpi idrodinamici.

Nello spiegare ai fanciulli i boati associati al superamento della “barriera del suono”, per esempio, facciamo loro notare che mentre un oggetto si muove attraverso l’atmosfera alla velocità prossima a quella del suono, l’aria diventa molto simile all’acqua, da un certo punto di vista: diventa un mezzo relativamente incomprimibile, in relazione al movimento del corpo. Diciamo che, come risultato, l’aria si comporta, sotto alcuni aspetti significativi, come un mezzo idrodinamico, capace di generare onde d’urto che identifichiamo con il boato causato del volo supersonico di un aereo o dal volo supersonico di un proiettile di arma da fuoco.

Così, l’intera questione potrebbe apparire ben accertata. Perché dunque dovrebbero esservi controversie tra i fisici sulle conclusioni tirate dall’articolo del 1859 di Riemann, nel quale la generazione di tale “boato sonico” fu analizzata per la prima volta e prevista?

Durante gli anni Novanta del XIX secolo, Lord Rayleigh, Bertrand Russell e altri, insistettero sull’assurdità della fisica di Riemann. Rayleigh, in particolare, insistette sull’inesistenza dei “boati sonici”. La ragione di tanto clamore è che la fisica di Riemann è corretta: se i boati vengono prodotti in quel modo, allora esiste una fondamentale assurdità nel tipo di fisica matematica associata tradizionalmente a personalità famose quali Cartesio, Newton, Cauchy, Maxwell, Helmholtz, Kelvin, ecc. Il vero universo potrebbe non essere quello descritto dall’universo matematico di Newton, Cauchy e Maxwell.

In altre parole, il tipo di fisica che Riemann fece emergere con il suo articolo sulle onde d’urto implica un tipo di universo differente da quello descritto con insistenza dalla scuola di pensiero di Newton, Cauchy e Maxwell. L’organizzazione dell’universo non è newtoniana, ma idrodinamica.

Il mio principale contributo al lavoro scientifico è la scoperta e la dimostrazione, a partire dal 1952, che l’ordinamento dei processi economici corrisponde in modo unico alle implicazioni della fisica di Riemann.

Il ruolo centrale del lavoro di Riemann del 1859 nella costruzione di modelli applicativi per il calcolatore, nel modello econometrico LaRouche-Riemann, non sta in qualche furbo trucchetto con le analogie matematiche. I processi economici sono caratterizzati dalle trasformazioni simili alle onde d’urto, poiché i processi economici sono idrodinamici nelle loro caratteristiche più essenziali. Per le ragioni più appropriate, ho stabilito che un processo economico deve essere pensato dai fisici (per esempio) come processi termo idrodinamici.

Il problema è meglio compreso grazie a un’esposizione orientativa dello sfondo storico della controversia tra Riemann e Maxwell.

La scienza moderna

La scienza moderna nasce con i commenti sul lavoro di Archimede formulati nel XV secolo dal cardinale Niccolò Cusano. Lo sviluppo esplicito della scienza moderna cominciò a Milano, grazie alla collaborazione tra Leonardo da Vinci e Luca Pacioli, nel corso della quale Leonardo assimilò e elaborò riccamente le scoperte di Cusano sul metodo scientifico.

Questo lavoro portò al consolidamento di due scuole scientifiche interagenti, quella francese e quella tedesca, verso la fine del XVI secolo, i cui rappresentanti furono, rispettivamente, Gaspard Desargues e Giovanni Keplero. L’opera di Keplero e Desargues fu sintetizzata principalmente da Gottfried Leibniz, tra il 1671 ed il 1676, quello del completamento dell’elaborazione del suo calcolo infinitesimale, sancito con la pubblicazione della scoperta presso uno stampatore parigino, appunto nel 1676. Da un lato si arrivò a Leibniz partendo da Keplero; dall’altro lato si passò da Desargues, Fermat e Pascal fino al lavoro di Huygens e Leibniz. Lo sforzo di mettere insieme il tutto, fu compiuto sotto il patrocinio del francese Jean Baptiste Colbert.

L’opera proseguì nel corso del XVIII secolo con i seguaci di Leibniz in Germania, Svizzera, Svezia e Russia e per mezzo dell’ordine degli Oratoriani in Francia e in Italia. Nel periodo 1794-1815, il centro internazionale del progresso scientifico e tecnologico divenne L’École Polytechnique, sotto Gaspard Monge e Lazare Carnot, entrambi prodotti del programma educativo degli Oratoriani.

È un fatto storico che ogni scoperta scientifica importante effettuata nel 1815 fu compiuta esclusivamente dalla corrente di pensiero derivante da Cusano e terminante nel lavoro dei seguaci di Carnot e Leibniz in Germania.

OndaUrtoEconomica_Figura05

Quando Laplace e Cauchy unirono i loro sforzi per quasi esiliare la scienza dalla Francia, Alexander von Humboldt e Carnot organizzarono il trasferimento della scienza francese in Germania, inizialmente nell’Università di Berlino e nella Scuola Militare prussiana, con un trasferimento simultaneo della scienza francese, ad ampi pezzi, nell’accademia di West Point, sotto la direzione del comandante Sylvanus Thayer.

Specialmente dall’inizio del XVII secolo, l’insegnamento e la spiegazione della scienza si andarono dividendo in due correnti irreconciliabili. La corrente di Cusano, Leonardo, Keplero, e via dicendo fu denominata dagli avversari britannici come la scuola della “scienza continentale”. Questa corrente della “scienza continentale” si distinse per la sua insistenza sulla natura geometrica, e non algebrica, delle leggi dell’universo.

La corrente opposta britannica, quella “riduzionista”, insisteva che le leggi dell’universo sono assiomaticamente anti-geometriche, cioè in forma algebrica.

Il tema delle scoperte di Keplero fu al centro di questa controversia. Nulla ha a che fare con il tema fraudolento dell'”uomo copernicano” che riempie le argomentazioni di agenti britannici come Arthur Koestler.

La “scienza continentale” è derivata interamente e direttamente dallo sviluppo di una concezione originariamente conosciuta tramite la presentazione nel dialogo Timeo di Platone, la concezione associata ai cosiddetti Cinque Solidi Platonici. La grande importanza di Riemann per la scienza moderna è che egli fu il primo a portare a compimento un metodo efficace per concepire in modo completo gli esperimenti grazie ai quali provare rigorosamente il carattere platonico dell’ordinamento legittimo dell’universo. La tesi del 1859 sulla “onda d’urto” è il caso più tipico di esperimenti che Riemann progettò per dimostrare questo punto.

Durante la vita di Platone, uno dei suoi collaboratori attivo presso il tempio cirenaico di Ammon, fu la prima persona nota a dimostrare che ci sono soltanto cinque tipi di poliedri regolari, che possano essere costruiti nello spazio euclideo, una prova ricostruita nel modo più rigoroso da Leonardo Eulero durante il XVIII secolo, e ricostruita precedentemente da Luca Pacioli.

A partire da questa dimostrazione, Platone trasse numerose conclusioni collegate, che sono centrali nel Timeo. Queste conclusioni furono provate successivamente, in rapporto all’ordinamento delle orbite intorno al Sole, da Giovanni Keplero, il quale dimostrò un’ipotesi avanzata in precedenza da Leonardo da Vinci ed altri. I seguaci di Keplero e Desargues svilupparono la scoperta di Keplero, lungo una traiettoria di sviluppo principalmente seguita dall’École Polytechnique, dall’Università Humboldt e dall’Università di Goettingen, tra la metà degli anni Cinquanta e la metà degli anni Sessanta dell’Ottocento.

Il fatto che solo cinque solidi platonici possano essere costruiti nello spazio visibile prova che lo spazio visibile (euclideo) è limitato da princìpi geometrici. Platone argomentò che lo spazio visibile non è una rappresentazione diretta dell’universo reale, ma è piuttosto un riflesso legittimo dell’universo reale, un riflesso visto in una forma “distorta” da uno specchio, uno specchio ovunque immerso nell’universo reale. Platone affermò anche che la distribuzione degli eventi nello specchio è governata da princìpi armonici e che dobbiamo comprendere come gestire questi princìpi armonici per accedere all’universo reale, non visto, riflesso per noi nello spazio visibile.

Usando le scoperte di Leonardo ed altri, Keplero definì un esperimento per mettere alla prova se l’ordinamento del sistema solare fosse pienamente coerente con tali distribuzioni armoniche degli eventi. Con l’aiuto di opportune correzioni, rese possibile attraverso lo sviluppo delle funzioni complesse, dobbiamo dire che le leggi di Keplero spiegano in modo unico ed esclusivo i princìpi fondamentali dei fenomeni astrofisici conosciuti ai giorni nostri, mentre il programma di Newton, Cauchy e Maxwell non lo fa.

Il carattere conclusivo della prova di Keplero fu confermato, infine, dal giovane Karl Gauss. Keplero aveva specificato che se le sue leggi erano corrette, e tutti i presupposti alternativi necessariamente errati, allora avrebbe dovuto esistere un pianeta che un tempo era esploso, su un’orbita i cui valori armonici orbitali furono da lui specificati. Fu scoperto successivamente, prima da Karl Gauss, che la cintura degli asteroidi ha precisamente quei valori orbitali armonici.

La somma del lavoro matematico derivante dalle scoperte di Keplero fu condotta a una conclusione intermedia principalmente da parte di una figura chiave dell’École Polytéchnique, Luois Lagrange. Riemann lavorò per completare l’opera di Lagrange, aiutato in larga misura dalle scoperte cruciali di uno degli insegnanti più immediati di Riemann, Lejeune Dirichlet.

Ciò che Riemann ottenne è riassunto in una forma preliminare nella tesi di laurea del 1854 “Sulle ipotesi che stanno alla base della geometria”. Il nucleo di tale tesi è un insieme completo, per quanto preliminare, di specifiche generali per progettare quelli che Riemann descrisse come “esperimenti unici”, dei quali il lavoro del 1859 sulle “onde d’urto” è una illustrazione degna di nota.

La questione centrale della ricerca scientifica è, dato che l’universo reale è invisibile ai nostri occhi: a quali condizioni e per mezzo di quali metodi possiamo addurre leggi valide per l’universo invisibile a partire da osservazioni sperimentali compiute nei termini di riferimento dei fenomeni dello spazio visibile? Riemann definì lo spazio visibile, la riflessione distorta dell’universo reale visto da noi, come un molteplice discreto (una varietà discreta, secondo la terminologia matematica italiana) e l’universo reale riflesso nello specchio come un molteplice continuo. A quali condizioni sperimentali speciali possiamo essere sicuri che certe affermazioni selezionate a proposito di relazioni osservate nel molteplice discreto siano anche vere per il molteplice continuo?

Per riassumere la questione il più possibile in rapporto alla rilevanza diretta della nostra discussione, il tipo di esperimenti attraverso i quali possiamo sviluppare enunciati validi sull’universo, che Riemann battezzò “esperimenti unici”, richiede cambiamenti qualitativi nell’ordinamento legittimo dei processi osservati nel molteplice discreto, cambiamenti del tipo che spesso indichiamo con il nome di “fenomeni relativistici”.

In altre parole, finché le osservazioni sperimentali sono incentrate sul genere di formule matematiche che semplicemente ripetono se stesse all’infinito, siamo capaci di costruire descrizioni matematiche della natura “dimostrabili” in termini statistici, che possono o non possono corrispondere in verità all’ordinamento legittimo dell’universo. È solo se conduciamo esperimenti nel corso dei quali sembra che stiamo cambiando le leggi locali dell’universo, che scopriremo i princìpi legittimi che delimitano il tipo di tali cambiamenti che l’universo consente. Il nome conveniente per questo tipo di ricerca sperimentale, che concentra l’attenzione direttamente su questi tipi unici e speciali di casi, è “fisica relativistica”. Solo gli esperimenti che sono immediatamente incentrati sui cambiamenti di fase relativistici nei processi osservati ci indicano cose valide in merito all’ordinamento legittimo dell’universo.

Il paradigma che caratterizza la visione anti-scientifica dell’universo non è Newton, ma Cartesio. Newton è meramente una versione degenerata degli argomenti di Cartesio. L’universo pensato da Cartesio è un universo da “big bang”. “Dio creò l’universo in un giorno e successivamente divenne impotente, incapace di cambiare la composizione delle leggi che aveva creato”.

Per Cartesio il vero universo non è più né meno che il molteplice discreto – lo spazio vuoto, infinitamente esteso, nel quale le particelle fluttuano, agendo le une sulle altre. Fu questa particolare assurdità, questa assurdità pericolosa, nello schema di Cartesio ad essere brutalmente attaccata da Pascal, Leibniz e dall’École Polytéchnique. Benché lo schema cartesiano possa apparire ad alcuni come geometrico nella sua concezione, esso è un euclideismo ingenuotto che porta direttamente a una concezione assiomaticamente algebrica, o cabalistica (usando un termine più vecchio), della fisica matematica.

L’algebra è nella sua essenza un culto fenicio (filisteo) velenoso dal punto di vista psicologico, imposto sul corpo delle ricerche scientifiche.

Il curriculum originale dell’École Polytéchnique fu geometrico, interamente ed in modo pervasivo; fu questa la caratteristica del programma educativo diretto dal grande geometra Gaspard Monge. Nel 1816, quando la Casa di Orléans ebbe sottomesso la Francia, Laplace si sostituì all’esiliato Lazare Carnot nella direzione dell’École. Laplace eliminò dai programmi dell’École il curriculum geometrico, e impose il suo schema algebrico, cabalistico. Il fanatismo laplaciano ebbe come complemento le proposte del plagiatore fraudolento Augustin Cauchy. Questi sforzi combinati crearono le condizioni di una inquisizione contro la scienza francese, che costrinse la scienza di Francia a esiliarsi nella Prussia di Alexander von Humboldt.

Benché il prof. Felix Klein e i suoi collaboratori avessero difeso gran parte dei risultati dei loro predecessori in Francia e in Germania nei cento anni precedenti, l’influsso e la conoscenza del metodo della “scienza continentale” sono state strappate via dai curricula universitari e ridotte alla conoscenza di un porzione ormai prossima al nulla della professione scientifica.

In Germania, che resse le sorti del progresso scientifico fino ai primi anni Venti del XX secolo, la scienza era già in via di distruzione sistematica durante la Repubblica di Weimar. Con l’ascesa di Hitler al potere, i nazisti sostituirono rapidamente gli scienziati competenti in molte posizioni universitarie di rilievo, lasciando che solo un frammento della scienza tedesca sopravvivesse durante il periodo nazista. Ciò valse a ravvivare la scienza negli Stati Uniti, ma in modo temporaneo, poiché rifiutammo di riprodurre l’eccellenza scientifica che gli emigrati avevano portato con sé.

Nella Germania odierna, è solo grazie a un ristretto numero di studenti di Werner Heisenberg che sopravvive la competenza nel lavoro scientifico fondamentale. Quando andranno in pensione, la competenza scientifica in Germania risulterà scomparsa.

Oggi, solo in casi eccezionali sosteniamo le varietà importanti di ricerca fondamentale e gli sviluppi correlati nei campi della fisica e simili, e questo principalmente attraverso i progetti di volano scientifico finanziati dal governo, come lo sforzo della NASA precedente al 1967. A cominciare dall’introduzione della “New Math”, abbiamo permesso la distruzione dell’insegnamento introduttivo alle scienze nelle scuole pubbliche, e abbiamo adeguato i programmi universitari alla predominante incompetenza dei diplomati dalle scuole pubbliche che sono stati così coltivati.

Con una percentuale sempre minore di eccezioni, i diplomati dalle scuole pubbliche a partire dal 1966 sono meno razionali, meno capaci di assimilare le abilità tecnologiche e le competenze scientifiche di coloro che si diplomarono in periodi precedenti. L’insegnamento competente della geometria, che è il fondamento della competenza nel pensiero scientifico, o nell’abile uso di macchine utensili, sta svanendo nell’istruzione.

Le concezioni fondamentali che venivano assimilate piuttosto rapidamente dalle precedenti generazioni dei diplomati di scuola superiore, sembrano al contempo molto misteriose e anche così sbagliate da far infuriare, per la maggior parte dei diplomati degli ultimi quindici anni. Anche tra coloro che sono professionisti ampiamente qualificati, le implicazioni della termoidrodinamica applicate, in particolare, ai processi economici, appaiono mistificanti e decisamente sbagliate.

Così la concezione di Riemann di una funzione potenziale, o l’uso della funzione dell’onda d’urto nell’analisi economica, tenderà ad apparire come una questione strana ai più, mentre la stessa cosa sarebbe stata più prontamente capita dai professionisti di meno di cinquant’anni fa.

Tutte le trasformazioni cruciali che accadono nel vero universo hanno la forma matematico-geometrica altrimenti esibita nella generazione di un’onda d’urto. In ogni aspetto la natura del processo che è oggetto di analisi ci richiede di riconoscere che è in atto tale trasformazione cruciale (cioè relativistica); il nostro compito analitico è di applicare una procedura matematica analoga alla funzione dell’onda d’urto, e di determinare sperimentalmente le condizioni al contorno, e i parametri dello spazio delle fasi, che corrispondono all’espressione di tale funzione in questo caso.

Ecco in che cosa consiste il “metodo LaRouche-Riemann”.

La funzione potenziale

L’esistenza dell’umanità può essere misurata in modo funzionale in un solo modo, nella qualità di un processo di crescita (o decrescita) della densità demografica relativa. Quante persone per km2 possono essere sostentate dal lavoro della società ai livelli esistenti di pratica tecnologica?

Il nostro obiettivo non è meramente quello di produrre un incremento demografico in sé. Il nostro obiettivo è di produrre una popolazione capace di accrescere ulteriormente la propria densità demografica relativa. Il nostro obiettivo è una popolazione accresciuta con un aumento procapite del potenziale di densità demografica.

Riformulato in termini più matematici, siamo obbligati ad accettare qualcosa che è assai insoddisfacente dal punto di vista di una visione del mondo assiomaticamente algebrica. Il nostro rigoroso pronunciamento di principio richiede una nozione matematica del tipo che alcuni hanno definito “funzioni auto-riflessive”. Il fanatico cabalista radicale Bertrand Russell e i suoi amici dell’Università di Cambridge subirono quasi un colpo apoplettico quando fu suggerito che esistessero tali funzioni auto-riflessive.

In altre parole, se esaminiamo l’attività umana con il metro del perpetuarsi dell’esistenza umana come un tutto, il carattere significativo dell’odierna attività umana procapite è il suo potenziale realizzato di produrre una popolazione allargata con un accresciuto simile potenziale per il futuro.

Sfortunatamente, la procedura usuale nell’odierna pratica economica sta nell’interpretare l’andamento economico dal punto di vista del normale contabile. L’andamento economico è misurato sia con il numero di oggetti prodotti sia, il che è peggio, con il prezzo aggregato netto del totale degli acquisti e delle vendite avvenuti in un’economia. L’opinione pubblica è così profondamente condizionata a illudersi che i contabili siano economisti, che i resoconti puramente statistici degli oggetti o dei valori contabili vengono ingurgitati come la norma della pratica economica. Tali illusioni hanno reso possibile la carriera di quel pericoloso incompetente che fu Robert Strange McNamara.

È vero che la produzione di oggetti utili è la forma visibile dell’attività dalla quale dipende l’esistenza umana. È facile dimostrare che gli oggetti non hanno valore economico in sé e di per sé. La domanda da porre alla scienza economica è, dunque: quale valore hanno alcuni particolari oggetti prodotti ai fini della perpetuazione dell’esistenza della società? Questa produzione di oggetti accresce o diminuisce la densità demografica relativa potenziale procapite della nuova generazione?

Indichiamo con Pi il termine generico della successione dei valori di densità demografica relativa potenziale procapite. P1, P2, P3, …, Pi, …,Pn, …, descrivono allora la crescita della densità demografica relativa potenziale procapite sui successivi periodi di sviluppo della totalità della popolazione umana in crescita. Questa successione implica una funzione corrispondente F(P) di qualche tipo. Se il valore associato alla funzione non cresce (di norma) in modo continuo nel tempo, la società si ammala o comincia addirittura a morire.

Il significato degli oggetti prodotti è l’effetto della loro produzione e del loro consumo sulla crescita dei valori assegnati a tale funzione. Al posto di una successione di valori successivamente crescenti, richiediamo una varietà particolare di valore fisso per la nostra funzione, un valore di base fissato per la funzione, vista come un’affermazione globale. Questo valore fissato per la funzione nella sua globalità sussume crescite della densità demografica relativa potenziale procapite di epoca in epoca. Questo valore della funzione nella sua globalità ha il significato di ciò che si potrebbe talvolta voler chiamare “linea d’universo”. Questo valore implica la traiettoria di auto-sviluppo della società che è il tasso minimo di miglioramento della densità demografica relativa potenziale procapite richiesto per sostentare indefinitamente l’esistenza umana.

Di conseguenza, nella scienza economica elaborata in modo appropriato, definiamo con il nome di potenziale il potere di produrre un potenziale accresciuto dello stesso tipo.

Apprezzo le difficoltà iniziali sperimentate anche dalle persone che hanno una formazione professionale in questo campo. Io ho combattuto a lungo con questa sorta di nozione sin dal mio tentativo di comprendere parte del lavoro di Leibniz, all’età di 12 anni, e posso dire di non essere giunto ad una comprensione soddisfacente della materia prima dei trent’anni, dopo quasi un anno di combattimenti con le implicazioni della nozione di infinito proposta da Georg Cantor. Senza riconoscere, infine, il significato del lavoro di Cantor, non avrei compreso in modo indipendente il significato dell’approccio metodologico di Riemann. Trent’anni dopo, posso sperare di esser divenuto abbastanza esperto consapevole di questa concezione da espormi per renderla accessibile ad altri in modo più generale, per ridurre la questione coinvolta in termini di riferimento dimostrabili sperimentalmente senza compromettere alcunché di fondamentale.

Indicherò il significato di “transfinito”, per tornare quindi ad enunciare il punto che ho appena citato.

Nella sua essenza, l’idea di grandezza “transfinita” può essere sviluppata come segue.

La più semplice approssimazione di numero transfinito è nella conta di numeri interi. In prima approssimazione, si può dire che se N è il massimo intero contato, il prossimo intero è identificato come N+1, oppure N-1. Affermando come un’idea la procedura di conteggio tramite il quale tutti i membri di una classe possono essere contati, si introduce la sostituzione dello stato di una tale idea per il conteggio dettagliato di ciascun numero di tale classe.

Per esempio, ci chiediamo come contiamo in un modo rigorosamente ordinato tutti i numeri frazionari (inclusi gli interi), altrimenti detti numeri razionali? Pensando alla costruzione del crivello di Eratostene, abbiamo ridotto tutti i numeri razionali ad una singola idea.

Possiamo fare altrettanto con la classe dei numeri irrazionali (per esempio, le radici che non sono numeri razionali). Possiamo fare altrettanto con la classe dei numeri algebrici. E così via.

La generalizzazione di tali idee nella scienza moderna inizia, come sviluppo significativo, con il lavoro di Fermat e Pascal durante la metà del XVII secolo. Pascal elaborò il principio che vuole che le successioni significative di numeri ordinari vengano definite dal punto di vista della geometria, non dell’aritmetica. Ciò stabilisce le caratteristiche aritmetiche del calcolo differenziale, che Leibniz combinò con le richieste formulate da Keplero per lo sviluppo di tale calcolo, per sviluppare la prima forma generalizzata dell’analisi infinitesimale moderna, nel 1676.

La trattazione di Leibniz condusse al relativo lavoro di Leonhard Euler nel definire le formulazioni basilari della topologia, e altre materie affini.

La nozione che le successioni aritmetiche e le funzioni algebriche siano meramente un sottoprodotto di funzioni puramente geometriche è una vecchia idea di età incerta, ed è il nocciolo di qualunque varietà competente della trattazione moderna delle funzioni algebriche. Lo sviluppo della nozione di transfinito da parte di Cantor dal 1871 al 1883 è essenzialmente la continuazione e la generalizzazione di questo punto. Poiché tutte le funzioni aritmetiche e algebriche possono essere ridotte implicitamente ad un’affermazione in geometria, possiamo “manipolare” ampi e illimitati insiemi di numeri, ecc., come in un singolo atto di pensiero, scoprendo l’idea geometrica appropriata che genera l’insieme come una raccolta ben definita.

Tra le più interessanti di queste idee, come accade all’interno dei limiti dell’aritmetica in sé, v’è la determinazione del numero dei numeri primi all’interno di un dato intervallo di conteggio tra zero e un intero N scelto a piacere. Fermat riferì di aver scoperto una soluzione per questo problema e potrebbe aver avuto ragione [nel frattempo la sua congettura è stata dimostrata, NdT]. Leonhard Euler affrontò nuovamente il problema durante il XVIII secolo e Riemann rielaborò la concezione euleriana approssimativamente un secolo più tardi. Questa scoperta della funzione di Riemann-Euler per i numeri primi non è mai stata analiticamente smentita, benché occorra ancora una piena valutazione della stessa. L’idea di sostituire la funzione di Riemann-Euler a un vero conteggio dei numeri primi all’interno dell’intervallo, appartiene al tipo generale di comportamento di pensiero che si associa alla nozione dei transfiniti.

Questa funzione di Riemann-Euler è altamente affascinante non soltanto perché è popolare il problema della determinazione dei numeri primi. Essa dice implicitamente che i numeri unicamente reali nell’universo sono quelli che chiamiamo numeri complessi e che gli interi, e i cosiddetti “numeri reali” sono meramente delle singolarità all’interno del dominio continuo identificato dalle funzioni complesse.

Dal punto di vista dell’opera di Riemann (soprattutto), tali affermazioni hanno un significato preciso e fondamentale. Il punto è illustrato dalla nostra precedente descrizione sommaria delle funzioni d’onda. Abbiamo derivato una funzione d’onda sinusoidale su un piano a partire da una spirale sul cilindro che racchiude tale piano, mostrando come il numero pi greco e la base dei logaritmi naturali e entrano nella funzione trigonometrica per mezzo di una semplice costruzione geometrica.

Osserviamo ora la Figura 4, quella della spirale di crescita “auto-simile”. Ne riparleremo successivamente, in questo articolo. Si tratta di una concezione che dobbiamo originariamente (per quel che ne sappiamo) ad Archimede, e più tardi a Luca Pacioli e Leonardo da Vinci.

Abbiamo usato l’ipotenusa di un triangolo rettangolo A come cateto maggiore del triangolo rettangolo simile B e con la stessa procedura abbiamo sviluppato i triangoli C, D, E, F, G e H. Il risultato approssima la crescita del guscio di una conchiglia o di un nautilo, che sono approssimativamente spirali archimedee.

OndaUrtoEconomica_Figura04

Due sono le cose da precisare a proposito, nell’immediato. La prima è che la spirale archimedea è una spirale le cui porzioni relative sono quelle della sezione aurea (talvolta nominata in modo fuorviante come rapporto aureo). Questa sezione aurea è posta in evidenza durante la costruzione dei Cinque Solidi Platonici e nella costruzione del pentagono, e corrisponde alla proporzione armonica cruciale nell’intervallo di quinta in musica, in astrofisica (e altrove). Il rapporto è caratteristico di due cose nel nostro universo molteplice discreto: la morfologia dei processi viventi e l’ordinamento dell’universo nella sua totalità.

Esso è approssimato in aritmetica per mezzo della cosiddetta successione di Fibonacci, il calcolo ipotetico della crescita di una popolazione di conigli. Mentre i termini della successione di Fibonacci diventano relativamente grandi, la successione converge al valore della sezione aurea determinata da un profilo di crescita geometrica.

Questa spirale è generata in modo appropriato, nella geometria sintetica, costruendo una spirale logaritmica auto-simile sulla superficie di un cono. L’immagine della spirale proiettata da un lato sulla base del cono è la spirale archimedea. Si costruisca un esagono inscritto nella circonferenza di base del cono. Si derivi un poligono regolare a dodici lati, inscritto nella circonferenza, a partire dall’esagono. Si divida la base circolare del cono, in questo modo, in dodici settori circolari eguali. I raggi intersecheranno allora la spirale archimedea nelle proporzioni tra le lunghezze della spirale corrispondente alla scala ben temperata. Ciò fu presentato dal dott. Tennenbaum nel 1981.

Ora, procediamo fino al passo successivo nelle costruzioni del dott. Tennenbaum della scala ben temperata. Usando una procedura simile all’iscrizione dei Cinque Solidi Platonici all’interno della sfera come quella di Euler: gli intervalli kepleriani, iscritti all’interno di un cilindro, da punto a punto di una spirale logaritmica, sorreggono la progressione musicale appropriata.

Ora, facciamo un passo in più. Trattiamo il cilindro come se fosse un cono molto allungato e proiettiamo il risultato sulla base del cono. Questo descrive l’importanza dei diversi registri musicali così come le proporzioni auto-simili della scala ben temperata lungo tutta la gamma dei registri.

Facciamo in modo che ciascuna di tali proiezioni sia trattata come un riflesso del molteplice continuo proiettato sul molteplice discreto dello spazio euclideo. La nozione geometrica delle immagini del molteplice continuo generativo rende conto delle immagini proiettate come una classe.

Questi espedienti pedagogici demistificano le funzioni complesse in un modo preliminare, aiutando lo studente a pensare razionalmente alle connessioni tra i molteplici continuo e discreto. Questo tipo di pensiero sottolinea il significato più profondo della nozione dei transfiniti.

Generalmente, i “numeri” transfiniti sono concezioni geometriche che compattano il pensiero intorno all’estensione complessa di una classe definita di determinati oggetti particolari in una singola azione del pensiero. È il pensare direttamente agli universali che determina legittimamente grandi insiemi di oggetti particolari. Ontologicamente, è nel modo in cui noi possiamo riconoscere, in un modo razionale, la realtà che la realtà è situata con gli universali, e che gli oggetti particolari (le singolarità) sono relativamente effimeri determinati dall’auto-elaborazione di tali universali.

Questo approccio ci consente di procedere nello studio dell’interazione tra universali e universali. La nostra funzione F(P) è una tale transfinito.

È convinzione popolare, che cogliere i princìpi fondamentali del lavoro scientifico dipenda dal lavoro personale attraverso anni di apprendistato, seguito dall’approccio con costruzioni matematiche sempre più complicate. Forse, dopo trent’anni di studi superiori e di attività di ricerca tipici di un assistente di un docente universitario, la testa di chiunque dovrebbe essere sufficientemente colma di raffinate conoscenze tali da permettergli di affrontare questioni fondamentali. Naturalmente esagero per chiarire il punto.

Al contrario, le questioni veramente fondamentali del metodo scientifico sono quelle tipiche della comprensione dei Cinque Solidi Platonici da parte di Platone. La maggior parte degli errori nella scienza non sono del tipo degli errori che si associano alle correzioni di una formulazione algebrica (oppure alla sottrazione da parte di una spia di una “formula segreta”). Tutti gli errori importanti nel lavoro scientifico sono errori elementari. Gli errori importanti sono quelli assimilati, o non corretti all’età dai 6 ai 16 anni. Questi errori nei presupposti diventano radicati, come per un “principio ereditario”, nell’elaborazione di costruzioni matematiche o d’altro, fino allo status di professore emerito. I professori emeriti veramente tali sono del tipo che riconosce che un problema grave della scienza odierna potrebbe essere nell’ingenua accettazione di un errore madornale di Michael Faraday, per esempio.

Questa è la storia del progresso scientifico, nel quale tutti i veri risultati fondamentali sono stati esattamente una critica rigorosa di uno o più presupposti “elementari” e di luogo comune che, proverbialmente, erano state accettate come oro colato da ogni professionista istruito.

Il nemico del progresso scientifico è il mito popolare secondo cui qualcosa di profondo debba necessariamente essere assai complicato, che richiede lavagnate di fitte trattazioni analitiche delle funzioni algebriche. Al contrario, l’intuizione che approssima una scoperta fondamentale è illustrata dal tipico scolaro insolente che raggiunge la lavagna imbrattata di formule, vi cancella qualcosa per tracciare un semplice diagramma geometrico, che giunge direttamente al punto cruciale, elementare dell’intera questione.

Per esempio, al meglio della mia conoscenza, Cusano fu il primo a scoprire il principio fondamentale di una topologia rigorosa: che il cerchio è l’unica figura auto-evidente in geometria, e che punti e linee non hanno esistenza assiomatica. Si costruisce una “linea retta” ripiegando un cerchio su sé stesso; ogni altra definizione di “linea retta” porta ad astruse assurdità nella fisica delle varietà molteplicemente connesse. In modo analogo, si costruisce un punto ripiegando un semicerchio su sé stesso. Linee e punti sono singolarità determinate (costruibili) dei cerchi. Una volta completata la correzione della mitologia popolare, una montagna di spazzatura algebrica elaborata cade più o meno immediatamente dal corpus della fisica matematica.

“Ma”, si ode protestare, “abbiamo costruito un cerchio facendo ruotare una linea attorno a un punto!” In questo argomento è evidente un abbaglio comprensibile, un abbaglio il cui carattere è una mancanza di attenzione sufficientemente rigorosa alle questioni fondamentali. Il significato di un cerchio è che esso rappresenta, in primo luogo, la chiusura nel molteplice discreto. Nella topologia elementare, allo studente è presentata la prova che il cerchio è la curva chiusa che circoscrive la massima area. Questa è la pedagogia necessaria, ma non è ancora al fondo del problema. Qual è il significato fisico del racchiudere la massima area relativamente a un dato perimetro? Quali sono le implicazioni cruciali di una tale affermazione? Lo studente la cui mente è turbata da tali implicazioni è proprio quello che probabilmente diventerà il grande scopritore del domani. “Vero, costruiamo un cerchio con il compasso, ma che cos’è che abbiamo costruito? Quale delle forme di esistenza nell’universo, esistenti precedentemente, abbiamo riprodotto? Qual è la natura del nostro universo, per cui i cerchi possono essere costruiti in tal modo?”

Questo genere di pensiero scientifico rigoroso fu associato al riesame compiuto nel XV secolo e oltre, delle implicazioni dei Cinque Solidi Platonici. Scegliendo, in primo luogo, i poligoni regolari corrispondenti alle facce dei Cinque Solidi Regolari e inscrivendo quelli in un cerchio, Keplero riprodusse la nozione platonica degli intervalli armonici. Questa è stata, storicamente, la procedura con la quale sono state costruite tutte le varietà competenti di scienza matematica moderna. La mente non è forse sufficientemente affascinata per comprendere perché sia così, cioè perché l’universo è costruito in modo che sia così? Qualunque matematica rigorosa inizia con il principio topologico, che il cerchio è l’unica forma geometrica auto-evidente esistente nel molteplice discreto. Attraverso le singolarità iniziali, il “punto” e la “linea retta”, derivate dalla costruzione dal cerchio, viene derivata rigorosamente ogni forma geometrica possibile esistente nel molteplice discreto, come un prodotto del cerchio. Questa è la prima legge matematica che governa tutti i fenomeni del molteplice discreto. Dunque, in sostanza, la caratteristica elementare di qualunque varietà competente di prova matematica è una dimostrazione sintetico-geometrica che la forma geometrica specifica esaminata è coerente con la sua legittima derivazione dal cerchio o dalla sfera. Di conseguenza, nessuna formulazione matematica è accettabile nella disciplina fisico-matematica competente, a meno che chi propone la formulazione non costruisca prima di tutto il modello geometrico che la formulazione algebrica intende descrivere. Se un matematico non può indicare il modello geometrico, allora dobbiamo dire della sua formulazione algebrica, che egli non capisce ancora ciò di cui sta parlando. Esaminiamo il modello geometrico della funzione in accordo con i princìpi addotti dal principio della geometria sintetica, che tutte le esistenze geometriche nel molteplice discreto devono essere provate rispetto alla derivazione dal cerchio o dalla sfera: chiuso.

La maggior parte delle falle matematiche formali incontrate nel lavoro scientifico possono esser ridotte all’incapacità di attenersi al rigore della chiusura geometrica.

Lo stesso stato mentale, la stessa attenzione all’esame rigoroso delle nozioni elementari, è centrale nella nozione di densità demografica relativa potenziale procapite nel metodo LaRouche-Riemann. Dall’esterno, l’argomento impiegato per sviluppare le formulazioni per la densità demografica relativa potenziale procapite è facile da seguire. Questo argomento facile da seguire ci porta a conclusioni chiare e prontamente comprese che sono in violenta contraddizione con approcci all’economia politica non solo differenti, ma che sono anche acutamente offensivi nei confronti dei matematici e dei fisici professionisti. Quando una simile esperienza si presenta nel lavoro scientifico, sappiamo che esiste qualche errore estremamente astuto e pieno di risorse, racchiuso nella presentazione di concezioni semplici, elementari. La fallacia di questa natura elementare esiste sia nella dottrina offensiva offerta, sia nelle dottrine contrarie che vengono offese da questo materiale. È proprio così. La concezione che impieghiamo è chiara e semplice da seguire, elementare, e tuttavia in questa elementarità fa capolino una delle questioni più profonde nel lavoro scientifico in generale.

A questo punto, torniamo a concentrare l’attenzione sulla concezione elementare racchiusa, che sottolinea il metodo LaRouche-Riemann nel definire la densità demografica relativa potenziale procapite. In questo modo, affronteremo la questione chiave del metodo che i professionisti della fisica-matematica devono sospettare che esista. Una volta chiarita la questione, le implicazioni della nozione LaRouche-Riemann non saranno più oscure.

Le radici scientifiche nel neoplatonismo giudaico-cristiano

Sin dall’opera di Filone d’Alessandria e dei primi Apostoli Cristiani, “neoplatonismo” significato, nel suo uso proprio, un tipo di sovrapposizione dei princìpi giudaico-cristiani sulla visione del mondo metodologica riflessa più enfaticamente dal dialogo Timeo di Platone. Questa sovrapposizione non è nella forma di un inscatolamento del platonismo entro i confini teologici giudaico-cristiani. Piuttosto, il neoplatonismo giudaico-cristiano mira direttamente al cuore della concezione platonica ed esprime una formulazione esplicita di politica in rapporto a tale concezione.

Ogni risultato fondamentale nella scienza moderna è stato addotto direttamente da tale radice. Così, non dovrebbe stupire che il massimo teologo e legislatore dell’era moderna, il cardinale Niccolò Cusano, sia stato in sostanza anche il fondatore della scienza moderna.

Nell’esposizione del giudaismo fatta da Filone, nell’opera degli Apostoli Cristiani e nella patristica, a cominciare dai passaggi di apertura del Vangelo di San Giovanni, il neoplatonismo ha queste principali distinzioni sommarie.

In primo luogo, la Cristianità (in particolare) attacca direttamente e senza compromessi o tolleranze, tutte le sette pagane, in tutte le varietà esiodica, fenicia o della “Grande Madre”. La “Grande Madre”, che assuma la forma di Cibele, del culto di Mitra, di Sakti o di Iside, è per la Cristianità “la meretrice di Babilonia”. Il culto di Lucifero-Apollo-Horus, ecc. e di Satana-Osiride-Dioniso-Siva, è considerato correttamente come una sottocaratteristica del culto della “Grande Madre”, di Iside, o della “meretrice di Babilonia”.

In secondo luogo, il neoplatonismo giudaico-cristiano rifiuta tutte le dottrine dell’equilibrio demografico, incluse quelle attribuite all’antico platonismo. Ciò è particolarmente evidente nell’imperativo del Libro della Genesi, “crescete, moltiplicatevi e soggiogate la Terra”. Questo imperativo si traduce direttamente e necessariamente nella forma di densità demografica relativa potenziale procapite.

In terzo luogo, la capacità dell’umanità di perfezionare il suo dominio della natura, tramite avanzamenti scientifici e tecnologici nella capacità produttiva del lavoro, è implicita nella dottrina della creazione del Filioque presente nella liturgia latina. Questa dottrina supera la consustanzialità di Compositore e Logos del Timeo, benché sia pienamente in accordo con la nozione platonica del principio della consustanzialità. Nel Cristianesimo, la creazione di un Cristo che è parte consustanziale di Dio il Compositore è l’ampliamento di Sé da parte di Dio. L’uomo, benché sia immerso nel potenziale divino, deve imitare Cristo affinché diventi uno strumento del processo della continua creazione, per sviluppare ulteriormente l’universo in una maniera creativa, per la gloria di Dio.

In quarto luogo, i princìpi giudaico-cristiani respingono in modo assoluto la versione alla “big bang” della creazione che, come nella dottrina d’Aristotele, sarebbe avvenuta in un momento unico. Filone, per esempio, è esplicito su questo punto. L’universo è una composizione in sviluppo, un processo di creazione continua. La legittimità della composizione dell’universo non si limita ad un insieme fissato di leggi di una varietà meccanica (cioè, cartesiane o newtoniane). I princìpi legittimi dell’universo sono regole che governano lo sviluppo della creazione continua, un processo della creazione continua nel quale le leggi fisse, di genere meccanico, vengono trasformate in successione.

Questo, tra gli altri, è stato il punto fermo dei contributi fondamentali dati alla scienza da Cusano, da Vinci, Keplero, Leibniz e Riemann. Quest’ultimo, per esempio, è il più esplicito, ad esempio nella sua trattazione delle antinomie di Herbart. Anche Friedrich Schiller fu esplicito sulla questione, criticando la fondamentale fallacia metodologica nell’opera di Immanuel Kant.

L’uomo ha l’obbligo di adempiere all’ingiunzione a esercitare un crescente dominio sull’universo, scoprendo più perfettamente quei più alti livelli della creazione continua (cosa distinta dai tipi meccanici, ed effimeri, di consistenza all’interno del molteplice discreto). Questa adduzione perfezionata dell’ordinamento legittimo della creazione continua è il contenuto proprio della scienza.

Benché questo sia il contenuto esplicito del neoplatonismo giudaico-cristiano, è un modo di vedere non esclusivo di tale neoplatonismo. La fondazione di Israele e la rifondazione di Atene accaddero in modo non accidentale a distanza di un decennio l’una dall’altra. Nel caso della rifondazione di Atene, essa fu sostenuta dal tempio di Ammon; vi sono forti indizi interni che questa influenzò Mosè, colui che guidò un gruppo scelto per avere la meglio sul potere dei Filistei. (È la conoscenza del male rappresentata da Cadmo e Tebe che informa le nostre vedute sui Filistei antichi) La visione di Dio, dell’uomo e della natura associata agli avversari del dogma esiodico in Grecia (Solone, Eschilo, Platone ed altri) è nota per esser stata sviluppata sotto il patrocinio del tempio di Ammon, in opposizione al culto di Iside in Egitto.

Anche se non ha ancora completato le proprie ricerche in questo senso, chi scrive e i suoi collaboratori stanno lavorando sulle tradizioni braminica e di simile genere nel tentativo di scovare una corrente analoga all’interno della teologia-filosofia vedica, nella quale il principio della creazione che dà continuità alla vita rappresenta la corrente positiva predominante. Assieme a questo aspetto della nostra ricerca è uno studio dell’astronomia attestato nei testi vedici e assimilati, che fu esaminato inizialmente esaminato da Keplero e in seguito dagli studiosi tedeschi, tra i quali Karl Gauss e August Boeckh. Quest’ultimo studio è stato ampiamente trattato da chi scrive nel recente libro dal titolo Il fattore Toynbee nella Grande Strategia Britannica. Il dott. Uwe von Parpart ha inserito, nella sua appendice, alcuni casi esemplari dell’antica conoscenza dei cicli astronomici.

Contrariamente alla dottrina britannica sul fenomeno delle età o delle ere glaciali, le ricerche universitarie in Germania hanno mostrato che l’ingresso della Corrente del Golfo nella regione artica durante la seconda parte dell’ultimo milione di anni potrebbe aver spostato la calotta ghiacciata dall’Artico fino ai continenti adiacenti, portando ad effetti coincidenti con quanto trovato da Bal Gangdahar Tilak. L’astronomia artica riflessa nei Veda, inclusa la conoscenza di un immenso ciclo verificato in primo luogo da Keplero, e i cicli di migrazione dei poli settentrionali, geografici e magnetici, sono prove conclusive delle tesi incluse sia nell’opera di Tilak sia nel recente libro su Il fattore Toynbee.

Ben prima che il malvagio culto dell’astrologia facesse la sua comparsa, esistette una scienza rigorosa e empiricamente fondata dell’astronomia e della navigazione. La scienza e i prodromi del neoplatonismo giudaico-cristiana emersero in tandem, mentre l’uomo innalzava lo sguardo al di sopra della sua bestialità, dovuta alla subordinazione all’immorale ideologia del sangue e della terra, e mirava i cieli, per scoprire quale fosse il suo posto e il suo significato nel dispiegamento della creazione continua.

Così, benché la nostra referenza primaria sia il neoplatonismo giudaico-cristiana, la nostra considerazione della questione è più ampia.

Ecco il ruolo chiave della nozione di transfinito di Georg Cantor, il punto di vista dal quale l’opera di Riemann può essere appropriatamente approfondita. La nozione di Cantor non fu, infatti, essenzialmente originale. Fu piuttosto il predecessore suo e di Riemann, Karl Weierstrass, a fornire la più avanzata prospettiva sulla combinazione delle opere delle due personalità di rilievo dell’École Polytéchnique, Fourier e Lagrange. Questo avanzamento permise a Cantor di riformulare la nozione pre-esistente del transfinito su una nuova base matematico-geometrica.

Per “transfinito” intendiamo che la realtà, la sostanza, l’ontologia, esiste soltanto in un molteplice continuo, piuttosto che nelle immagini riflesse del molteplice discreto. L’esistenza transfinita non è un mero costrutto addotto dall’ordinamenti algebrici dei fenomeni del molteplice discreto. La transfinitezza non è meramente un metodo superiore della costruzione mentale per concepire l’ordinamento all’interno di un molteplice discreto.

Lo dimostra l’esame dell’equivalenza della trattazione di Weierstrass delle discontinuità ordinate e della trattazione geometrica di Riemann delle discontinuità in queste forme armonicamente ordinate della generazione delle onde d’urto. Il molteplice continuo è l’unico ontologicamente reale. È è nella comprensione delle ragioni, delle prove che ciò è necessariamente così, che affondano le radici più profonde le nozioni elementari del metodo LaRouche-Riemann di previsione economica.

Per esempio, l’equazione E = mc2 di Albert Einstein non è consistentemente un relativismo riemanniano, anche nei fatti se Einstein dovette molto del suo approccio alla fisica relativistica della nozione di relativismo di Keplero e Riemann. Tra Riemann e Einstein era intervenuta l’influenza corruttrice di Helmholtz e del suo circolo di de facto adepti di Iside, alleati in questo culto dominante le discussioni e le scelte scientifiche dell’Università di Cambridge durante l’attività di Clifford e nel periodo successivo. La nozione corrotta di “energia” associata a Helmholtz e compagni, insieme alla influenza perniciosa di L. Kronecker e del delfico Richard Dedekind, introdussero una mal definizione meccanicista e riduzionista dell'”energia”, tanto che la E nell’equazione di Einstein è un ostacolo intrinseco al coerente relativismo interno alla dottrina di Einstein.

Questa nozione helmholtziana di “energia” disloca la realtà ontologica, dal molteplice continuo al molteplice discreto cartesiano, tanto da tentare di ribaltare tutto ciò che era stato precedentemente maturato nello sviluppo della scienza moderna, a partire da Cusano, attraverso Keplero e Riemann. Dunque, nel genere di visione relativistica modificata associata al lavoro di Einstein, la transfinitezza diventa quasi completamente un metodo di sviluppare spiegazioni più direttamente plausibili dei fenomeni situati ontologicamente all’interno del genere cartesiano del molteplice discreto.

Questo non è un tema meramente parallelo al lavoro nel metodo LaRouche-Riemann nella scienza economica. Questa differenza con Einstein è il cuore cruciale del metodo LaRouche-Riemann.

Dopo aver identificato queste osservazioni di ragguaglio, concentriamo direttamente l’attenzione sulle questioni fondamentali della conoscenza umana. Che cosa può conoscere l’uomo in merito alla composizione legittima del suo universo, e tramite quale metodo può essere addotta con certezza tale conoscenza?

L’esistenza dell’uomo, prima di tutto, dipende interamente dal soddisfacimento delle condizioni per accrescere la densità demografica relativa potenziale procapite.

A qualunque livello fissato di tecnologia produttiva, l’esistenza dell’uomo è associata allo sviluppo e allo sfruttamento di un insieme piuttosto ben delimitato di risorse naturali. Lo sviluppo di materie grezze richiesto dall’esistenza umana alla scala attuale, richiede una porzione del lavoro totale della società. Se aumenta questa porzione procapite di lavoro richiesto per soddisfare i bisogni umani procapite, allora il livello di consumo di quei tipi di risorse naturali praticamente accessibile all’attuale livello di tecnologia porta ad un collasso della densità demografica relativa potenziale procapite. Se questo potenziale crolla al di sotto del livello esistente di popolazione, la società è destinata a crollare.

Per esempio, la modalità di caccia e pesca dell’esistenza umana non può sostenere una densità demografica di regioni abitabili al di sopra di una persona ogni 10-15 chilometri quadrati, cioè una popolazione umana nell’ordine di circa dieci milioni di individui a livello globale.

Come ho indicato ne Il fattore Toynbee il punto d’inizio dello sviluppo culturale al di sopra del livello della modalità di caccia e pesca dell’esistenza viene raggiunto con la pesca nelle prossimità delle foci dei fiumi. Alcune delle implicazioni sono ovvie, a chiunque abbia davvero arrancato per procedere all’interno di una giungla o di una foresta vergine. Lo sviluppo delle barche e lo sviluppo degli insediamenti rivieraschi prossimi alle foce dei fiumi, è quasi la sola precondizione per lo sviluppo della cultura umana. Questa è la condizione ottima per lo sviluppo agricolo nella sua forma originaria e la diffusione lungo i bacini fluviali verso l’entroterra, lontano della coste.

Questi sviluppi rivieraschi e marittimi, del tipo che tende a produrre la scienza astronomica e della navigazione nelle sue forme rigorose primitive, è quasi la precondizione indispensabile per l’avanzamento della popolazione umana mondiale, al di sopra del pugno di milioni di individui. Se una cultura marittima, dedita alla pesca, fosse esistita nella regione artica in un periodo come quello implicato dall’era glaciale, si sarebbe trovata nella condizione perfetta per essere costretta a uno sviluppo dell’astronomia e alla creazione di un centro di diffusione della cultura tramite la colonizzazione marittima in altre regioni del mondo, come attestano Diodoro Siculo, Manetone o altri membri del tempio di Ammon.

Una volta compiuta tale transizione verso una cultura sui dieci milioni di individui, il progresso tecnologico nello sviluppo della potenza produttiva del lavoro diventa una precondizione per evitare il collasso demografico e culturale. Da questo punto di vista, l’imperativo della Genesi, “crescete, moltiplicatevi e soggiogate la terra “, non va visto come un capriccio del Compositore del Libro della Genesi, ma come un predicato del principio scientifico più fondamentale, la precondizione della continuità assicurata dell’esistenza umana.

L’avanzamento della tecnologia ha due effetti sulla densità demografica relativa potenziale procapite. Nel primo modo, la crescita della produttività procapite controbilancia gli effetti del consumo delle forme più ricche e più accessibili delle risorse naturali in uso. Nel secondo modo, più fondamentale, il progresso tecnologico estende, in modo consecutivo e definitivo, l’insieme delle risorse naturali usabili, disponibili all’economia della società.

Da questo punto di vista, confutiamo l’affermazione che la conoscenza umana sia esemplificata dal perfezionamento di un modo tecnologico esistente in una pratica ripetuta e immutata. Se ci si limita a ripetere la stessa tecnologia, e lo si fa con più rigore, l’umanità muore. Una pratica corporativa ispirata da una politica di ‘crescita zero’ tecnologica è una pratica di una società che manca dei connotati morali per sopravvivere. Dobbiamo dunque odiare le nozioni inerenti la conoscenza, che dipendono dalla misura di azioni ripetibili.

La conoscenza umana deve essere situata nella determinazione dei mezzi tramite i quali si sviluppa una tecnologia migliorata. Ciò che dobbiamo addurre è un insieme di princìpi provati per guidarci in rivoluzioni assodate nella tecnologia. Ciò che dobbiamo richiedere è un insieme di princìpi ipotetici, princìpi che siano in comune, in modo caratteristico, con le rivoluzioni scientifiche compiute in successione nelle capacità produttive del lavoro. In altre parole, richiediamo i princìpi delle ipotesi che corrispondono ai poteri sintetici della ragione necessaria.

Ritorniamo a esaminare la serie Pi sopra citata. Ogni livello P1, P2, P3, …, Pi, …, Pn di densità demografica relativa potenziale procapite definisce un grado di tecnologia. Associamo ogni grado tecnologico a un corrispondente a un insieme di “leggi” analitiche della forma cartesiana. Ciò che dobbiamo esaminare, per addurre la forma generalizzata richiesta della funzione potenziale, sono i sottoinsiemi di trasformazione delle leggi analitiche associate alle successioni nell’ordinamento P1, P2, … È la trasformazione caratteristica sussunta a tali elementi P1 della successione che implica la necessaria funzione potenziale.

Se la pratica di una società che soddisfi tale requisito generale, soddisfa una tale funzione potenziale, misuriamo il successo risultante come una crescita della densità demografica relativa potenziale procapite. La “linea d’universo” associata a tale processo di crescita del potenziale significa che la gente che produce un aumento demografico con individui dalla capacità procapite di accelerare la velocità di crescita di tale potenziale. Ancora una volta, il tipo di funzione potenziale auto-riflessiva che abbiamo definita prima. La crescita demografica in accordo a questo requisito, è dunque la misura empirica fondamentale di qualunque conoscenza scientifica umana. L’ordinamento transfinito del progresso scientifico che sussume una tale funzione potenziale diventa unicamente la base empirica per la determinazione di ciò che rappresenta e ciò che non rappresenta la conoscenza scientifica umana.

Ciò ci conduce al punto cruciale di un rigore elementare.

L’uomo dimostra la sua conoscenza della composizione legittima dell’universo nei termini del consapevole aumento del suo potere sull’universo. Così la forma e il contenuto della conoscenza scientifica non può essere altro che quel tipo di pratica collegata direttamente a quella crescita del dominio, con la produzione di quei generi di scoperta scientifica, con quelle rivoluzioni scientifiche, per mezzo dei quali aumenta il potenziale procapite.

Questo significa, in aggiunta, che il grado al quale la conoscenza dell’uomo sussume tali successive rivoluzioni scientifiche, è l’espressione dell’accordo tra la consapevole pratica dell’uomo e il vero ordinamento dell’universo. Quei princìpi di ipotesi – della ragione sintetica necessaria – che si correlano con questo accordo e che esprimono tale correlazione, sono la sostanza della scienza, e la definizione propria della scienza. Una tale nozione di scienza corrisponde direttamente alla nozione platonica della ipotesi dell’ipotesi superiore, e corrisponde in pratica a quell’intuizione dei Cinque Solidi Platonici dalla quale derivano tutti i risultati fondamentali della scienza moderna, nel corso degli ultimi cinque secoli.

L’uomo deve provare nella pratica che la sua idea sull’universo osservato corrisponde al modo in cui è ordinato nei fatti l’universo. Si deve convertire il giudizio dell’uomo dei fenomeni osservati nella forma di un’azione sull’universo volontaria e finalizzata. La conoscenza scientifica non deve essere degradata meramente a una spiegazione plausibile, o una plausibile descrizione dei fenomeni osservati. Qualunque “spiegazione” ritenuta tale deve essere elaborata nella forma di un predicato che guidi l’umanità ad accrescere il suo potere sull’universo. La crescita del potere dell’uomo sull’universo è la dimostrazione condizionale della “spiegazione” sviluppata in quella forma attiva, non contemplativa.

L’unica misura durevole della crescita del potere dell’uomo sull’universo è la crescita della densità demografica relativa potenziale procapite della società. Poiché ciò che dobbiamo sperimentare non sono meramente delle scoperte individuali, ma un metodo “ripetibile” per effettuare quel genere di rivoluzioni scientifiche che portano a tali crescite del potenziale procapite, un’affermazione è scientifica solo finché è un’affermazione di princìpi dell’ipotesi dell’ipotesi superiore.

Così provata, è un’affermazione di tale forma superiore, collegata alla composizione legittima dell’universo, e che si rivolge direttamente alla realtà efficiente, ontologica dell’universo.

In questo senso, una scienza economica basata sul potenziale procapite è la madre di tutte le scienze, ed è l’autorità alla quale tutte gli altri aspetti dell’indagine scientifica devono fare riferimento per derivare la propria autorità condizionata.

La nozione di Logos, l’ipotesi dell’ipotesi superiore è una nozione del fatto che l’universo reale (l’auto-compositore) è ontologicamente transfinito. È il molteplice continuo, corrispondente a quella transfinitezza ontologica che è l’universo reale nel quale l’azione di causa ed effetto è immediatamente situata.

Parleremo delle implicazioni di ciò che abbiamo appena elaborato in un parte successiva del presente rapporto.