1945 - 1985 - 2025

deel 3

Wetenschap en Techniek

Ergens in 1945. Mijn eerste afbeelding.

De hongerwinter overleefd.

Op weg naar een mooi leven.





Introductie


Morgen is het 22 april 2025. De dag waarop ik 80 wordt. Voor die tijd wil ik dit verhaal uitsturen. Het is nu 21 april, Tweede Paasdag. Het is deel drie van een serie artikelen over de dingen die me de afgelopen 80 jaar hebben beziggehouden. Ik heb nog geen idee wat er nu nog volgt.

In 1985 verscheen Aulapocket 748 getiteld: Geschiedenis na 1945. De veertig jaren na de bevrijding met zeventien hoofdstukken over vooral sociaal-politieke en economische ontwikkelingen in de wereld. Op de achterflap lezen we onder meer de volgende opwekkende tekst:

“Veertig jaar liggen er tussen het einde van de Tweede Wereldoorlog en vandaag. In die veertig jaar zijn er veel oorlogen geweest, maar geen wereldoorlog. Wel hebben zich vele crises voorgedaan, vooral tussen de twee supermachten de Verenigde Staten en de Sovjet-Unie. Eigenlijk is de periode na 1945 één grote crisis tussen die twee tegenstanders, een crisis met pieken en dalen.”


1945. Amerikaanse GI's, onze bevrijders. Wat is er sindsdien misgegaan?







In 1985 leek het Oostblok nog een stevige tegenpartij. Het bleek kort daarna vooral bluf en propaganda. Reagan zette de zaak op scherp en Gorbatsjov trok zijn conclusies. In 1989 kon het Westen juichen en vervolgens zelfvoldaan achterover leunen om het vredesdividend te verjubelen (m.u.v. de VS).

Na opnieuw veertig jaar lijkt het er nu op, o wonder, dat de naoorlogse vijandigheid tussen de VS en Rusland is omgeslagen in een soort bondgenootschap. Zijn twee autocraten de buit aan het verdelen voordat een autocraat uit China ermee vandoor gaat?

Tegelijkertijd is er tussen de VS en zijn oude bondgenoten een dramatische crisis ontstaan. En dat tegen de achtergrond van een mondiale ontwikkeling waarin wereldwijd democratieën regelmatig en onomkeerbaar ingewisseld worden voor autocratieën. Slecht! Ook voor de academische vrijheid en daarmee voor de vooruitgang en voor ons vermogen om mondiale vraagstukken tot een oplossing te brengen. Slecht voor de vrijheid in het algemeen. Wat we ook geleerd hebben van WO2 is dat er onder hoogspanning weinig tijd is voor wetenschappelijk onderzoek. Het gaat er dan om dat alle beschikbare kennis wordt vertaald in (oorlogs)technologie.

 

11 april 2025. De nieuwe Amerikaanse regering o.l.v. Donald Trump veroorzaakt permanent chaos. Is dit op zich al een strategie? We zitten nu in een nieuwe wereldoorlog: een Handelsoorlog. De wereld vraagt zich af hoe dit gaat aflopen. Iedereen is doodnerveus. Is dit wat het zwaar-conservatieve “project 2025” voor de wereld in petto heeft? Chaos, niet helemaal toevallig een thema dat in de beschouwde periode ook veel aandacht kreeg in de wetenschap. We komen het fenomeen hier nog tegen.

Hoe het ook zij, van de euforie van 1989 is weinig meer over. Ja, Aulapocket 748. Ik moet ineens denken aan George Orwell en zijn huiveringwekkende boek “1984” (uit 1948 en gebaseerd op de perverse visie van de Russische communistische partij op het onder de knoet houden van het volk. Zie ook Noord-Korea.



George Orwell publiceerde in 1948 een boek dat doordreunt tot de dag van vandaag. Het leven in een autocratie waarin de leugen regeert.





Even persoonlijk


Er is de afgelopen tachtig jaar veel gebeurd op het gebied van wetenschap en techniek. Zoveel dat ik me hier ernstig moet beperken. Ik ben overigens zelf in die periode zonder al te veel zorgen tachtig jaar geworden (2025), waar ik zeer dankbaar voor ben, en ik mag hopen dat mij nog een paar heldere jaren gegund zijn. Helderheid die je tegenwoordig echt nodig hebt om nog iets van de verbluffende ontwikkelingen in wetenschap en techniek te kunnen begrijpen en om simultaan het politieke kaf van het koren te kunnen scheiden. Ik hoop van harte dat de gamma-disciplines en de breinwetenschappers ons hierin helderheid kunnen verschaffen zonder dat ze, al dan niet onbedoeld, kennis aanleveren waar vooral de knoetleiders hun voordeel mee kunnen doen. Onderzoek aan echte breinen en kunstmatige breinen bereikte de afgelopen decennia de top van de wetenschappelijke hitparade. We zijn met kunstbreinen intussen zo ver gekomen dat het tijd wordt voor ongerustheid. Is Kunstmatige Intelligentie alleen maar een zegen? De twijfels groeien, de waarschuwingen worden luider. Maar we weten intussen toch hoe dit afloopt? De stuwende krachten zijn onstuitbaar, de lobby alom aanwezig, de bestuurders zijn leken en de regelgeving loopt ver achter de feiten aan.

Dat neemt niet weg dat ik steeds met de grootste belangstelling de prestaties op het gebied van wetenschap en techniek heb gevolgd. Uiteraard heel globaal. Want het was veel, het ging steeds sneller en het werd steeds lastiger te bevatten. Maar het was ook verbluffend en het liet telkens zien tot welke intellectuele hoogstandjes de mensheid in staat is.

Ik zal in dit verhaal niet verder komen dan wat persoonlijke waarnemingen die veelal, maar niet uitsluitend, een link hebben met de Tweede Wereldoorlog en met de VS, de staat die na die oorlog lange tijd de wereld van wetenschap en techniek domineerde. We starten immers in 1945. Wat ik intussen wel geleerd heb is dat ook veel van het zogenaamd vrije onderzoek van de naoorlogse jaren achteraf gezien wel degelijk het veiligheidsfilter moest passeren. Wat hebben we er aan voor onze machtspositie, was in oorlogstijd de expliciete vraag en in rustiger tijden een verborgen vraag maar niet minder sturend. We kennen sinds kort weer de oude wijsheid: wie oorlog wil voorkomen moet er op voorbereid zijn.

 

Mijn studie wis- en natuurkunde in de ook wat onrustige jaren zestig bracht mij in contact met de wereld van Onderzoek en Ontwikkeling, meestal aangeduid als R&D. Het was de tijd dat de militairen in de academische wereld op grote afstand werden gehouden. Mijn interesse voor “de wonderen der natuur” stamde al uit mijn lagereschooltijd. Het was een permanente bron van inspiratie, verbeelding en geluk. Mijn bijbel was in mijn tienertijd een boek met als titel Triomftocht der Wetenschap, tweede herziene druk uit 1953, auteur Walter Shepherd. En we hebben daarna waarachtig niet stil gezeten.

1962. Rachel Carson publiceert haar schokkende boek "Silent Spring". Een bom onder ons veilige en voorspoedige wereldje. Het begin van de wereldwijde milieubeweging.





Onze wetenschappelijke kennis en ons technologische vermogen zijn de afgelopen tachtig jaar spectaculair toegenomen. Maar de triomfen lijken tegenwoordig toch wat minder te glanzen. Te veel triomfen bleken later niet smetteloos. In 1939 werd duidelijk dat DDT een effectief middel is tegen allerlei insecten. Paul Hermann Muller kreeg er in 1948 zelfs de Nobelprijs voor. Het bestrijdingsmiddel werd in WO2 op grote schaal gebruikt om de troepen te behoeden voor onder meer malaria en vlektyfus. De Amerikaanse mariene biologe Rachel Carson had zo haar bedenkingen. Ze publiceerde in 1962 haar wereldberoemde boek “The Silent Spring” waarin ze de wereld waarschuwde voor de negatieve effecten van grootschalig gebruik van DDT op de biosfeer. De verschijning van dit boek wordt wel beschouwd als het startpunt van de mondiale milieubeweging. Het wondermiddel DDT wordt nog wel gebruikt voor de malariabestrijding, maar met mate en weloverwogen. In ons deel van de wereld is het verboden. Het werd een terugkerend fenomeen: optimisme gevolgd door de keerzijde. Ik denk aan het wondermateriaal asbest, aan de CFK’s uit onze koelmachines die de levensbelangrijke ozonlaag begonnen af te breken. Ik denk aan al dat geweldige verpakkingsmateriaal dat ons bestaan veraangenaamde ten koste van het mariene milieu, aan de hormonen in het drinkwater afkomstig van de Pil, en zo kan ik nog wel even doorgaan. De vooruitgang lijkt op de processie van Echternach, drie stappen vooruit en dan twee stappen terug. Of andersom.

Tachtig jaar vrede en vooruitgang. Voor mij persoonlijk, maar zeker niet voor al mijn tijdgenoten. Mijn eigen (wetenschappelijke) bijdrage aan die vooruitgang was praktisch nul. Hoewel? Kinderen grootbrengen kan als het meezit ook uitlopen op een bijdrage aan de vooruitgang. Maar we hebben het nu over wetenschap en techniek.

Als student maakte ik kennis met onderzoek op het gebied van de medische fysica (regeling van de oogbeweging) en de plasmafysica (plaatscontrole van een gasontlading in een torusvat). Na mijn doctoraal kreeg ik de gelegenheid om te promoveren op een onderzoek aan metaaloppervlakken met behulp van een laag-energetische bundel edelgas-ionen (Afd. Atoom- en Molecuulfysica, UvU). Een buitengewoon interessante en enerverende periode met als een van de vele lessen dat experimentele natuurkunde vraagt om permanente hoop op betere tijden en om voldoende stressbestendigheid. Helaas bleef de promotie buiten bereik. Na deze harde onderzoekfase heb ik me bij TNO vooral beziggehouden met de softe kant van de wetenschap: wetenschapsvoorlichting, communicatie over onderzoek(sresultaten) en zwaaide ik af als aanspreekpunt van TNO in het Europese kaderprogramma voor Onderzoek en Ontwikkeling. Dat alles breed en boeiend zoals TNO zelf.


Na de ellende en de tragiek van twee wereldoorlogen bleef het in mijn omgeving opmerkelijk lang rustig en kon er “in alle rust” gebouwd worden aan een nieuwe wereld. Een wereld van groeiende welvaart en groeiend welzijn. Nogmaals: zeker niet voor iedereen en zeker niet voor iedereen in dezelfde mate. Maar de trend was duidelijk. De vraag is wel of we nu, na tachtig jaar, een trendbreuk gaan beleven. Is er een nieuwe orde in de maak? Zo ja, zullen we dan eerst een periode van wilde chaos moeten trotseren? Anders dan een wereldoorlog, maar misschien net zo verwoestend?


1943. De Colossus II computer, de eerste volledig elektronische computers, in  Bletchley Park nabij Londen. De machine werd gebruikt door Alan Turing c.s. om de Duitse Enigma-code te kraken.








Voortgang en vooruitgang


Een van de vele ontwikkelingen in de afgelopen tachtig jaar die het bestaan radicaal en op alle fronten heeft veranderd is de opkomst van de elektronica, meer in het bijzonder de computer, met op dit moment als speerpunt de komst van kunstmatige intelligentie, vaak aangeduid als AI wat staat voor Artificial Intelligence. We hadden dit verhaal ook als speelse pars-pro-tototitel “Van ENIAC tot ChatGPT” mee kunnen geven. ENIAC, de tweede volelektronische computer uit 1946, ChatGPT als de recente doorbraak van de AI-technologie, volgens velen een voorloper van machines die spoedig over met de mens vergelijkbare intelligentie beschikken met de aantekening dat de ontwikkeling van deze kunstbreinen waarschijnlijk met grote snelheid zal doordenderen. De gevolgen voor de mensheid, die qua intelligentie veel minder snel evolueert, zijn nauwelijks voor te stellen maar zullen volgens ingewijden ingrijpend zo niet verbijsterend zijn. Nauw betrokkenen smeken de politiek nu om regelgeving om deze ontwikkeling beheersbaar te houden en te voorkomen dat er nog heel veel meer macht bij de grote techbedrijven terecht komt. Zoals steeds geldt helaas ook hier: hoe groter de voordelen hoe ingrijpender de nadelen. En we weten ook dat het wettig bestuur steeds meer moeite heeft op deze complexe terreinen tot snelle en adequate beheersmaatregelen te komen.

Geoffrey Hinton past onmiskenbaar in ons verhaal. Hij werd in 1947 in Wimbledon geboren en ontwikkelde zich tot een leidende figuur in de wereld van de kunstmatige intelligentie, AI. In 1986 maakte hij indruk met een artikel over het trainen van een AI-systeem. (technisch: een  backpropagation-algoritme voor het trainen van meerlagige neurale netwerken). Hij won, samen met John Hopfield, in 2024 de Nobelprijs voor Natuurkunde voor hun "basis leggende ontdekkingen en uitvindingen die het computers mogelijk maken om te leren met hulp van kunstmatige neurale netwerken". En nu in 2025 probeert hij de mensheid ervan te overtuigen dat AI niet alleen feestelijk moet worden omarmd maar dat AI ook een grote bedreiging voor de mensheid kan gaan betekenen. Tachtig jaar in een notendop. We komen op AI nog terug.


Hendrik Casimir (1958). Vooraanstaand fysicus. Vanaf 1946 directeur van het Philips NatLab. Wees op de belangrijke wederzijdse bevruchting van wetenschap en techniek: de Wetenschap-Techniek Spiraal.






Wetenschap en techniek, twee handen op elkaars buik


Wetenschap en techniek worden vaak in één adem genoemd. Daarmee wordt terecht gesuggereerd dat ze een twee-eenheid vormen. Het is duidelijk dat ze elkaar veel te bieden hebben. Maar dat is niet altijd zo geweest. Lange tijd had elk niet alleen zijn eigen doelstelling maar in hoge mate ook een eigen ontwikkeling. De wetenschap wil weten hoe de wereld in elkaar zit en hoe veranderingen tot stand komen. Welke wetmatigheden er gelden. Welke voorspellingen daarmee kunnen worden gedaan. De wereld is complex. Het opsporen en testen van die wetmatigheden vraagt vaak om het creëren van experimentele omstandigheden waarin die complexiteit sterk wordt gereduceerd. Uitsluiting van storende factoren.


Maar de ontwikkeling van de techniek maakt het wel mogelijk om steeds complexere vraagstukken aan te pakken. Met name de groeiende rekenkracht van de computer, een technische verworvenheid, maakt de analyse van steeds complexere systemen mogelijk. Er worden nu al simulaties uitgevoerd van de evolutie van het complete universum! Anderzijds is de computer een prachtig voorbeeld van technologie die gevoed is door wetenschappelijke inzichten. Denk aan de vaste-stoffysica en de bijbehorende kwantummechanica die aan de basis hebben gestaan van de halfgeleidertechnologie, lees transistor en chip als bouwstenen van de moderne computer. Het is een voorbeeld van de wederzijdse bevruchting van wetenschap en techniek die we op allerlei gebieden tegenkomen. We maken nu de opkomst van kunstmatige intelligentie mee. De verwachting is dat daarmee geheel nieuwe wegen worden geopend voor het wetenschappelijk onderzoek op velerlei gebied. Hendrik Casimir, de oud-directeur van het beroemde Philips NatLab (vanaf 1946) sprak in dit verband van de Wetenschap-Technologie-Spiraal. Ze stuwen elkaar omhoog, steeds verder.

Technologie is niet zozeer gericht op het vermeerderen van onze kennis maar op het oplossen van praktische problemen en het lenigen van concrete behoeftes. Techniek moet dan ook werken onder praktijkomstandigheden. Techniek moet bestand zijn tegen of berekend zijn op complexe omgevingsfactoren en moet ook nog om kunnen gaan met storingen en onverwachte omstandigheden. Al is het maar een veiligheidsventiel dat ontploffing moet voorkomen. Veel technieken, van de kunst van het bouwen van een huis en het fabriceren van een uurwerk tot het telen van planten, ontwikkelden zich proefondervindelijk. We konden al heel lang fietsen voordat we begrepen hoe de mechanica van een fiets met fietser werkt.

De afgelopen twee eeuwen is gerichte inzet van wetenschappelijke kennis in de wereld van de technologie een (belangrijke) rol gaan spelen. Maar nog steeds gaat de kennis van de ervaren vakman verder dan dat wat hij uit de leerboeken (en van YouTube) kan leren.

Wetenschap en techniek hebben de afgelopen tachtig jaar onze wereld ingrijpend beïnvloed. Op alle denkbare gebieden was sprake van interessante en niet zelden ook radicale vernieuwing. Er was zeker sprake van voortgang. Vooruitgang is wat moeilijker te meten. De gemeenschap van onderzoekers en technologen groeide onstuimig en men kreeg de beschikking over steeds meer kennis, geavanceerde gereedschappen en know how. Kortom, een dubbele groei, mogelijk gemaakt door de groeiende welvaart, met revolutionaire effecten.

 

Kennis was al langer macht en wordt steeds meer macht. Kennis werd ook de basis voor de groei van welvaart en welzijn, wat je vooruitgang zou kunnen noemen. Maar die vooruitgang had een prijs: bedreiging van het voortbestaan van de menselijke soort en van heel veel niet-menselijke soorten.


1972. Grenzen aan de Groei. Rapport aan de Club van ROme. Studie van Forrester en Meadows.







De mensheid toonde de afgelopen tachtig jaar overigens een opmerkelijk aanpassingsvermogen of moet je het eerder meegaandheid noemen? Of bezwijken voor verleidingen en beloftes? In ieder geval een vorm van onvermogen en soms onwil om in te zien dat we met al dat moois ook tegen allerlei grenzen aanlopen en er niet zelden overheen gaan. Grenzen aan de groei. Grenzen aan het geestelijke absorptievermogen van de beperkte mens. Grenzen aan de draagkracht van de Aarde, van onze leefomgeving, van de natuur, omdat alle levensvoorwaarden nu eenmaal beperkt worden door schaarste en bedreigd worden door vergiftiging, klimaatverandering, roofbouw en desintegratie. De Club van Rome waarschuwde al in 1972. Het werd gehoord maar er werd niet geluisterd, eerder wat lacherig weggewuifd. De waarschuwingen hebben zich sindsdien herhaald en zijn alarmerender geworden. Gezien de huidige psychische gesteldheid van de mensheid en haar leiders moet worden gevreesd dat de alarmsignalen nog altijd niet sterk genoeg zijn. Er lijkt sprake van een mondiale vorm van cognitieve dissonantie die weinig goeds voorspelt. Hoe erg moet het nog worden? Zal de wal het schip dan toch moeten keren? Welk schip? De Ark? En wat zit daar straks dan nog in?

 

Hier zouden we ons betoog natuurlijk met goed fatsoen en zwelgend in dystopische visioenen kunnen afsluiten en verder gaan met het op orde brengen van ons kleine, maar o zo knusse schuilkeldertje, waarin we ons voorbereiden op “de eerste drie dagen na de grote kladderadatsch”. Maar dat is niet de bedoeling van dit verhaal. Ik wil nu eenmaal wat vertellen over de bijzondere prestaties in de afgelopen tachtig jaar van onze wetenschappers en techneuten. Zij hebben ons verder geholpen, misschien soms te ver, en zij staan nu voor de opgave om nieuwe visies op het creëren van een duurzaam leefbare planeet te verkennen en te implementeren. Hopelijk krijgen zij steun van “leiders met overtuigingskracht en doorzettingsmacht”. Daarom gaan we toch maar eens snuffelen aan de inzichten en revolutionaire ontwikkelingen die ze na 1945 hebben nagelaten.


Groot, klein, en alles er tussenin


Hierna enkele opmerkelijke prestaties uit de periode 1945 – 2025. De eerder genoemde Aulapocket nr. 748 markeert de 40 jaar grens. Een paar jaar eerder in 1982 was al een vergelijkbare Aulapocket uitgegeven, nr. 710, met als titel: Zover is de wetenschap, onder redactie van H. Bergman en H.J. Schoo. Geheel terzijde maar misschien leuk om de weten: Aula nr. 1 (1957) had als titel Het voorspel van de 80-jarige oorlog. 


In 1637 kwam Pierre de Fermat met zijn Laatste Stelling. Het duurde bijna 350 jaar voor die werd bewzen door Andrew Wiles.




Laatste Stelling van Fermat

Wat waren de grote wetenschappelijke prestaties, zo niet doorbraken? We beginnen met de moeder aller wetenschappen, de wiskunde. Zelf was ik zeer onder de indruk van de prestatie van de Engelse wiskundige Andrew Wiles die zich in 1986 thuis terugtrok in zijn studeerkamer en op zoek ging naar een bewijs van De Laatste Stelling van Fermat. In 1637 schreef de befaamde Franse wiskundige Pierre de Fermat in de marge van een Grieks wiskundeboek: "De vergelijking xn+ yn= zn, met x, y, z en n positieve gehele getallen, heeft geen oplossing als n groter is dan 2. Ik heb hiervoor een waarlijk spectaculair bewijs, maar helaas is deze kantlijn te smal om het te bevatten."


Voor n = 2 verschijnt de bekende stelling van Pythagoras met oneindig veel oplossingen: voor een rechthoekige driehoek met rechthoekszijden a en b, en schuine zijde c geldt a2+ b2= c2. Een van de oplossingen: 32+ 42= 52 .. Of 122+ 52= 132. Maar voor n = 3 gaat het al mis en daarna komt het nooit meer goed. Honderden jaren hebben wiskundigen tevergeefs geprobeerd dit vermoeden van Fermat te bewijzen. Daarbij groeide tegelijk de overtuiging dat ook Fermat geen bewijs gevonden kan hebben. Want dit bewijs bleek extreem lastig. Wiles lukte het, na zeven jaar in alle eenzaamheid, thuis op zijn studeerkamer, waar hij alleen uitkwam als het eten klaar was. Zeven jaar leven als een monnik. Eindelijk zijn monnikenwerk volbracht.

Tenminste, dat dacht hij. Toen hij zijn bewijs echter ter controle naar buiten bracht, een kleine 200 pagina’s, werd er een fout ontdekt. Na de eerste teleurstelling rechtte Andrew zijn rug en keerde terug naar zijn studeerkamer. Een jaar later kwam hij weer tevoorschijn. En toen was het wel raak. De duivelskunstenaar oogstte alom de hoogste lof.


De dubbele slinger is een voorbeeld van een chaotisch systeem. De beweging is extreem gevoelig voor de beginsituatie. Zie video dubbele slinger. 















Orde, chaos, determinisme

Wetenschappers deden en doen hun best om in de chaos van het bestaan wetmatigheden te vinden die een zekere mate van voorspelbaarheid mogelijk maken. Dat geeft een beetje greep op dat complexe bestaan. En dat is om allerlei redenen nuttig. Ze gaan er daarbij wel van uit dat er sprake is van determinisme. Kort gezegd: ieder gevolg heeft een oorzaak. Vaak wordt determinisme gelijkgesteld met voorspelbaarheid. Dat is onjuist. Neem een simpel systeem als de dubbele slinger, een stelsel van twee slingers waarvan een van de slingers scharnierend bevestigd is aan de andere. Het is een eenvoudig systeem dat rijk dynamisch gedrag vertoont met een sterke gevoeligheid voor de beginvoorwaarden. De beweging van een dubbele slinger is deterministisch en chaotisch. Wetenschappers en ingenieurs gebruiken computersimulaties bij het bestuderen van een dubbele slinger. De computer heeft de analyse van chaotisch gedrag mogelijk gemaakt. Evenals van fractalen, zich op iedere schaal herhalende patronen. Een wondermooie variant zijn de patronen die door de wiskundige Mandelbrot in 1980 zijn ontdekt. Hij kwam met “een procedé” waarbij inzoomen op een afbeelding telkens weer een nieuwe, vergelijkbare afbeelding opriep, een proces dat nooit stopt

Edward Lorenz was begin jaren zestig begonnen met het simuleren van het weer op een toen nog primitieve computer. Tot zijn verbazing produceerde de computer totaal verschillende weerssituaties als hij met dezelfde begincondities startte. Nader onderzoek leerde dat de beginwaarden gelijk leken maar het niet waren. De computer printte de beginwaarden uit met een nauwkeurigheid van drie cijfers maar ging aan het rekenen met nog twee extra decimalen en die waarden lagen niet vast. Een variabele met een geprinte waarde van 0,214 kon in een simulatie twee decimalen extra hebben, bv 0,21431 of 0,21423. Dat onzichtbare verschil kon in de simulatie van de weersontwikkeling na een aantal dagen het verschil betekenen tussen een heldere dag en een tornado. De ontdekking betekende het begin van een nieuwe discipline: chaostheorie. Wat maakt een systeem chaotisch en hoe kun je de mate van chaos bepalen? We weten intussen dat chaos overal voorkomt, van de onregelmatige hartslag tot de omvang van een wilde populatie. Beroemde uitspraak: een vleugelslag van een vlinder kan weken later de oorzaak zijn van een wervelstorm aan de andere kant van de wereld. Ook computers zijn beperkt in het voorspellen van het gedrag van chaotische systemen maar ze kunnen tegenwoordig met hun enorme rekenkracht wel steeds verder vooruit kijken. Onze meteorologen maken daar dankbaar maar altijd met een slag om de arm gebruik van. In mijn jeugd kwam het KNMI niet verder dan een globale voorspelling met een redelijke betrouwbaarheid voor een dag of twee. Het was ook hier het militaire belang dat voor vooruitgang zorgde. Computers en satellieten stonden aan de basis van meer betrouwbare voorspellingen.

 

Chaos blijkt algemener dan we altijd dachten. Sinds enige tijd weten we dat zelfs ons zonnestelsel chaotisch is. Je zou het niet zeggen als je bedenkt met welke regelmaat de planeten om de zon draaien. Maar op een kosmische tijdschaal ziet het plaatje er heel anders uit. Dan wordt het mogelijk dat een planeet op een gegeven moment, als gevolg van dynamische instabiliteiten, uit het zonnestelsel wordt gezwiept. We weten nu ook dat waarschijnlijk alle sterren planetenstelsels om zich heen hebben. Het sterke vermoeden bestaat dat het in al die stelsels kan zijn voorgekomen dat er op een zeker moment planeten uit zijn weggeschoten. De laatste jaren worden steeds meer van deze zogenoemde “rogue planets” opgespoord. Men noemt ze ook wel FFPs (Free Floating Planets) of iMPO’s (isolated planetary-mass objects. Alleen al in onze Melkweg zou het om miljarden losse planeten gaan. Dat hadden we tachtig jaar geleden niet kunnen bedenken. Toen kenden we maar een planetenstelsel, het onze.



Op de video vertelt John Conway over Game of Life, zijn beroemde uitving. Als je hem even laat lopen komt ook Life zelf aan bod.


Dit gebied van orde, chaos, fractals en automatons is nieuw en kwam op met de beschikbaarheid van computers. Al die wonderlijke fenomenen zijn met pen en papier niet te behappen. We sluiten deze sectie af met de cellulaire automaat, ook wel automaton. Een voorbeeld dat mij sterk heeft geïntrigeerd, staat bekend als het computerspel Game of Life en werd in 1970 ontwikkeld door de befaamde wiskundige John Conway. Het werd een hype, toen er eind jaren zeventig overal homecomputers opdoken. Een revolutie. Wij konden thuis beschikken over een Commodore 64. Het gaat in Life om een tweedimensionaal raster met vierkante 'cellen' die 'levend' of 'dood' kunnen zijn. Bij iedere tik van de klok kijkt de computer welke lege cellen tot leven moeten komen (lees zwart gekleurd), welke levende cellen sneuvelen (zwart wordt weer wit), en met welke cellen niks gebeurt. De keuzes berusten op vastgestelde regels. De “speler” mag een beginpatroon aanbrengen. Op het scherm verschijnen patronen die zich ontwikkelen, gaan leven of wegkwijnen. De kunst was/is  om interessante beginpatronen te vinden die zich kunnen voortplanten en/of verplaatsen, of zelfs elkaar onderuit halen. Het inspireerde sommigen tot ideeën over de evolutie van het universum. Zou het zo in het groot en in 3-D ook niet kunnen werken? Niet zo simpel. Anders misschien?


De Pil, Orale Anticonceptie

De impact van de magistrale prestatie van Andrew Wiles op wat dan ook was nul. Het was puur een uitdaging aan het menselijk breinvermogen. De spelende mens. Hier was sprake van het zuiverste van de zuivere wetenschap. Dat kunnen we van de anticonceptiepil niet zeggen. In tegendeel, deze uitvinding heeft de sociale orde ingrijpend en blijvend veranderd. De Pil werd in de VS in 1960 toegelaten als voorbehoedsmiddel. In 1963 werd Lyndiol (Organon) in Nederland geregistreerd. De vraag naar de Pil bleek enorm. In 1976 was in Nederland meer dan 40% van de vrouwen aan de Pil. De Pil gaf de vrouw zeggenschap over haar eigen vruchtbaarheid. De grote beschikbaarheid van de Pil had aanzienlijke gevolgen. Seksualiteit raakte losgekoppeld van de voortplanting. Echtscheiding werd veel “makkelijker” en huwelijken stranden sindsdien veel vaker. Seksualiteit voor het huwelijk (als er al wordt getrouwd) raakte algemeen aanvaard. En de geboortecijfers daalden drastisch. In de tweede helft van de jaren zestig was in ons land slechts 37% van de zwangerschappen gepland, eind jaren tachtig 93%. Verder heeft de Pil de stap naar abortus vergemakkelijkt. Eerder kwam abortus aan de orde als een zwangerschap volstrekt ongewenst was, na de Pil veranderde “ongewenst” in “onbedoeld”. Het gedwongen huwelijk en de tehuizen voor ongehuwde moeders raakten uit zicht. De Pil stond aan de basis van wat al snel de seksuele revolutie is gaan heten en gaf voeding aan de Tweede Feministische Golf (Baas in eigen Buik).

Nieuwe ontwikkelingen op het gebied van de voortplanting kunnen in potentie al evenzeer voor revoluties zorgen. Na de stap van de In Vitro Fertilisatie (IVF) is het niet ondenkbaar dat toekomstige (vermogende) ouders steeds vaker eisen gaan stellen aan de kwaliteiten van hun vrucht (embryo-selectie) en op zoek gaan naar opties om dit te realiseren. Een kind op bestelling. Vooralsnog vooral om medische problemen voor te zijn. In 1997 werd het eerste kindje geboren waarbij een Preïmplantatie Genetische Test (PGT) was toegepast. Een stap verder gaat de optie om de erfelijke eigenschappen (het DNA) van een embryo te manipuleren, waarna de veranderingen overerfbaar worden. In de agrarische sector wordt dit al breed toegepast. Het onderwerp genetische modificatie van toekomstige generaties mensen roept discussie op. In Nederland heeft het thema vooral een pragmatische insteek. Volgens het Rathenau Instituut onterecht, want het goed doordenken van de consequenties laat zien dat het gaat om niets minder dan de toekomst van de mensheid zelf! Na eerder George Orwell ziet de wantrouwende lezer hier Aldous Huxley opduiken met zijn boek “A brave new world” (1932).


Het dubbele helixmodel van DNA waarmee James Watson en Francis Crick in 1953  de wereld verrasten.






DNA

De ontwikkelingen op het gebied van erfelijkheid en de manipulatie daarvan kunnen niet los worden gezien van de indrukwekkende prestaties in de afgelopen tachtig jaar op het gebied van de moleculaire genetica. Op de eerste plaats de opheldering van de structuur van het DNA door James Watson en Francis Crick in 1953 (de dubbele helix). Ze kregen er in 1962 de Nobelprijs voor. Het belangrijke aandeel van Rosalind Franklin in de structuuranalyse werd ten onrechte genegeerd.

Op basis van deze biologische “quantumsprong” is sindsdien onze kennis van de elementaire levensprocessen enorm toegenomen. Zo werd van talrijke levensvormen, waaronder de mens, de genenstructuur bepaald. Ook het mechanisme van het aflezen van de genen en het vertalen van de informatie in eiwitten werd ontrafeld evenals het proces van celdeling en van voortplanting. We hebben ook geleerd hoe we het DNA kunnen veranderen door genen te vervangen of aan te passen. Genetische manipulatie. Het is een optie om erfelijke ziekten te elimineren of de eigenschappen van soorten te optimaliseren. Recombinant DNA vormt een basistechniek in de moderne biotechnologie. Zo wordt het gebruikt voor het creëren van genetisch gemodificeerde organismen (ggo's) die hierdoor gericht bepaalde eigenschappen meekrijgen die zij van nature niet bezitten. In 1973 lukte het voor het eerst om, met “knippen en plakken”, het DNA van de coli-bacterie aan te passen. Deze Recombinant DNA techniek wordt ook veelvuldig gebruikt voor de productie van recombinante eiwitten door bacteriën, schimmels, gisten en dierlijke of menselijke cellen. Aanvankelijk werd deze nieuwe stap op de weg naar “beheersing van het leven” met veel argwaan bejegend. Hoe ver kon en moest de mens gaan? Wordt eugenetica dan toch nog salonfähig? In 1975 werd in de VS de Asilomarconferentie georganiseerd waarin richtlijnen werden opgesteld voor de veilige toepassing van recombinant DNA. Het werd ook de start van een voortgaande discussie over de ethische aspecten van de manipulatie van (menselijk) erfelijk materiaal.


De mens ging verder, zij het onder strenge voorwaarden. Rond 2012 ontdekten wetenschappers dat ze met het afweersysteem van bacteriën (tegen virussen) elk stuk DNA konden knippen. Sindsdien is de zogenaamde CRISPR-Castechniek niet meer weg te denken uit de biotechnologie. De techniek maakte zo’n vlucht dat de ontdekkers, Jennifer Doudna en Emmanuelle Charpentier, in 2020 de Nobelprijs voor de scheikunde ontvingen.

De ontwikkelingen op dit gebied zijn spectaculair. Evenals de toepassingsmogelijkheden. Wat te denken van het opstellen van stambomen, het terugvinden van ouders en het oplossen van zedenmisdrijven? Het proces van de fotosynthese werd opgehelderd evenals de contractie van spiercellen, de werking van het immuunsysteem werd ontcijferd net als van de bloedstolling en van de vorming en werking van hormonen. En nog heel veel meer. Enorme sprongen.

 


Geologie. Platentektoniek

Ook de geologie heeft zich in de hier beschouwde periode sterk ontwikkeld. Van doorslaggevend belang was de erkenning dat Alfred Wegener het met zijn ideeën over de verschuiving van de continenten, rond 1910 door hem voor het eerst geopperd, bij het rechte eind had. Lange tijd werd zijn veronderstelling door het merendeel van de geologen niet aanvaard. De reden daarvoor was dat hij geen geschikt mechanisme kon formuleren, waarmee je dit soort gigantische veranderingen -verschuivingen van een heel continent over honderden of duizenden kilometers - kon verklaren.

In een groot deel van de geologische wereld werden daarom de overeenkomsten in aardlagen aan weerskanten van de oceanen als toeval terzijde geschoven en continentverschuiving werd lange tijd verguisd.

Pas in de jaren 1970 kwam er een kentering, nadat onderzoek van de zeebodem aan weerskanten van de Mid-Atlantische Rug aanleiding gaf tot het accepteren van de theorie van de platentektoniek. Ditmaal werd er wel een geschikt mechanisme voorgesteld, namelijk de convectiestromingen in de aardmantel. Het betekende de aanzet tot een radicale nieuwe visie op de vormingsgeschiedenis van de Aarde en later ook van andere planeten.

Van groot belang voor het vakgebied werd in de afgelopen jaren, vanaf de jaren zestig, de toepassing van isotopen voor datering en analyse van geologische processen. Voor de analyse van klimaatverandering bieden waterstof-, zuurstof- en koolstofisotopen veel inzichten. Gaat het om de analyse van de vroege historie van de Aarde, en van astronomische objecten, dan leveren metingen van uranium-, thorium-, rubidium- en kaliumisotopen belangrijke informatie.

Van groot belang voor de verhoudingen in de wereld is de beschikbaarheid van essentiële grondstoffen. Nieuwe technieken zijn steeds vaker gebaseerd op toepassing van schaarse grondstoffen. Dat geldt onder meer voor de elektronica en voor de energievoorziening. Ook duurzaamheid en hergebruik hebben hiermee te maken. Geologen staan vaak aan het begin van de productieketens. De vrees bestaat dat de schaarste aan onmisbare grondstoffen tot extra spanningen op het wereldtoneel zullen leiden.

 

Fysica en astronomie.

Het beeld van de fysica van de 20ste eeuw wordt gedomineerd door de formidabele inspanning om “de opbouw van de wereld” in kaart te brengen. De eerste stap was al eerder gezet. Van lieverlee werd duidelijk dat alle materie is opgebouwd uit atomen. Er werden er uiteindelijk 92 soorten van ontdekt, meestal aangeduid als elementen. Het lichtste element is waterstof, het zwaarste uranium. Je kon ze op een slimme manier in een schema plaatsen, het zogenoemde Periodiek Systeem der Elementen, waar ik in mijn jeugd zeer door werd geïntrigeerd en dat ik toen ook uit het hoofd kende. Al met al was er zo al een stevige basis onder de scheikunde gelegd.

 

De astronomen, met name Fred Hoyle, vonden in de jaren vijftig uit waar al die verschillende elementen vandaan kwamen en nog komen. Hoe ze gevormd zijn. Waterstof en helium zijn kort na de geboorte (tot 20 minuten na de geboorte) van het heelal ontstaan. De andere negentig veel later in de hete kernen van sterren en in de uitgestoten schillen van ontploffende sterren (supernova’s).



Het Standaardmodel van de elementaire deeltjes en krachten.

Linksboven de drie quarkparen, linksonder de drie leptonparen

rechts de krachtoverbrengende deeltjes, met helemaal rechts de gravitatie

en in het midden het Higgsboson.


Maar de fysici waren nog niet klaar met dit verhaal. Hoezo 92 verschillende elementen? Zat daar misschien een onderliggend bouwplan achter? Ze ontdekten al snel dat atomen meer zijn dan een kogeltje dat aan andere kogeltjes kan blijven kleven waardoor moleculen ontstaan. Sinds 1945 weten we (door beschietingsexperimenten) dat atomen zijn opgebouwd uit kleinere deeltjes. Er is een kern met daarin positief geladen protonen en ongeladen neutronen en daaromheen een wolk van negatief geladen elektronen. Onder “normale” omstandigheden zijn atomen elektrisch neutraal. Het aantal negatief geladen elektronen in de elektronenwolk is gelijk aan het aantal positief geladen protonen in de kern. Het is de elektronenwolk die de chemische eigenschappen van een atoom bepaalt. In het Periodiek Systeem staan de elementen op volgorde van het aantal protonen in de atoomkern. Waterstof 1, helium 2, lithium 3,…., uranium 92.


Er is voor de oorlog een nieuwe theorie opgesteld die de opbouw en het gedrag van de verschillende atoomsoorten kan verklaren: de kwantummechanica. Ook het verschijnsel van de radioactiviteit werd in die periode ontdekt. Bepaalde elementen hebben een instabiele kern wat leidt tot de productie van verschillen typen straling (alfa-, bèta- en gammastraling).

De klus leek geklaard maar met name de atoomkern werd toch met steeds grotere deeltjesversnellers aan de tand gevoeld. Hoe zit die sub-atomaire wereld in elkaar? Een terechte vraag, die in de naoorlogse jaren stap voor stap werd beantwoord. Een zich herhalend patroon: fysici die op zoek blijven naar onderliggende structuren. En tot nu toe met succes. Nieuwe, nog krachtiger instrumenten openden steeds weer deuren naar nieuwe nog kleinere structuren/deeltjes.

De huidige stand. Alle materie is opgebouwd uit twee soorten deeltjes: quarks en leptonen. Zo bestaat een proton uit drie quarks, mesonen zijn opgebouwd uit twee quarks. Elektronen en neutrino’s behoren tot de leptonen. Deze deeltjes zijn niet opgebouwd uit nog weer kleinere eenheden (voor zover we weten). Er zijn zes verschillende quarks en zes verschillende leptonen. Zowel de quarkgroep als de leptongroep bestaat uit paren. Zie de afbeelding. Zo horen bij de quarks de upper- en de down-quark bij elkaar, evenals charm en strange, en top en bottom. Hetzelfde zien we bij de leptonen. Het meest linkse paar wordt gevormd door het elektron en het elektronneutrino. Het middelste paar bestaat uit het muon en het muon-neutrino. Rechts staat het tau-deeltje en daaronder het tau-neutrino. De twee meest linkse paren domineren de opbouw van het universum. In het blokje rechts staan de deeltjes die verantwoordelijk zijn voor de krachten die de deeltjes op elkaar uitoefenen.



De Large Hadron Collider van het CERN in Geneve, de grootste ter wereld, die een belangrijke rol heeft gespeeld bij het opstellen van het Standaardmodel. De ondergrondse versneller heeft een diameter van 27 km en versnelt protonen (en andere ionen)tot een energie van 2,6 biljoen eletronVolt (snelheid vrijwel lichtsnelheid).


Deeltjes met een elektrische lading (quarks, elektron, muon en tau) voelen de elektromagnetische kracht die wordt overgedragen door fotonen (symbool ν). Quarks kunnen onderling ook wisselwerken via gluonen (de sterke kernkracht). De wisselwerking tussen quarks en leptonen verloopt via de zwakke kernkracht met als dragers de zogenoemde W- en Z-bosonen. De zwaartekracht werkt tussen alle deeltjes maar is zo zwak dat hij op sub-kwantumniveau te verwaarlozen is. Aan dit schema kon na lang “zoeken” in 2012 het al in 1968 voorgestelde Higgs-boson worden toegevoegd. Het deeltje heeft in het Standaardmodel de functie om alle andere materiedeeltjes massa te bezorgen. Peter Higgs, samen met degenen die bij CERN in Geneve met de LHC-deeltjesversneller de doorslaggevende experimenten hadden gedaan, ontvingen in 2013 de Nobelprijs. Tot slot: alle massadeeltjes hebben een partner, een antideeltje. Naast het proton bestaat er ook een antiproton. En naast het elektron een anti-elektron. Etc. Karakteristiek voor zo’n paar is dat als ze elkaar treffen ze verdwijnen (annihilatie) en omgezet worden in energie volgens de beroemde relatie E=mc2.

Het Standaardmodel levert een imposante beschrijving van de basisstructuur van de natuur. Maar het is volgens de kenners niet het laatste woord. Al is het maar omdat laatste woorden niet passen in de filosofie van de natuurwetenschappen. Zo is de plek van de zwaartekracht in het grote schema nog altijd een heet hangijzer. Is het wel een kracht zoals de andere drie? Ook de introductie van nieuwe fenomenen in de astronomie, zoals donkere materie en donkere energie roepen voorlopig alleen nog maar vragen op. Samen vertegenwoordigen ze 96 % van de inhoud van het heelal en we hebben geen idee wat het is! Verder zijn er nog steeds vermoedens dat we met de groepen bovengenoemde elementaire deeltjes nog een niveau dieper zouden kunnen gaan. Zo wordt geopperd dan quarks misschien uit preonen bestaan. Ook de kwantummechanica blijft breinbrekers opleveren. Hoe verloopt de “communicatie” tussen “verstrengelde deeltjes”? En kan de toekomst invloed hebben op het heden? En dan de grote vraag: waarom is er iets en niet niets? Het is denkbaar dat er bij het begin van het heelal niets was. Als er dan, vraag niet hoe, iets is ontstaan dan moet dat “een vorm van niets” zijn geweest. Een vorm van niets zou kunnen zijn ”evenveel deeltjes als antideeltjes”. Die zouden elkaar vervolgens weer hebben opgeheven door annihilatie. In werkelijkheid zien we een universum vol deeltjes en nauwelijks antideeltjes. Vooralsnog een raadsel hoewel er recent onderzoeksresultaten bekend zijn geworden die een vorm van verklaring zouden kunnen betekenen.


De James Webb Space Telescope (in goud) wordt klaagemaakt voor de lancering in 2021. Extreem kostbaar maar levert meer dan waar voor zijn geld op.








Spectaculaire waarnemingstechnieken en -instrumenten. Big Science.

De kennis die we na WO2 hebben verzameld hebben we vooral te danken aan de nieuwe hulpmiddelen die de onderzoekers ter beschikking kregen. In veel gevallen supercomplexe, zeer omvangrijke technische en uiterst kostbare faciliteiten. Het leidde al gauw tot een nieuw begrip: Big Science, vanwege de investeringen bijna altijd multi-nationaal gefinancierd. We geven een paar voorbeelden. Alle wetenschapsgebieden profiteren van de voortdurend krachtiger (super)computers. De fysici kregen hun superdeeltjesversnellers, zoals bij het CERN in Genève. Alleen al het opsporen van het Higgs-boson heeft naar schatting 13 miljard dollar gekost. De bouw van de grote versneller van CERN, de LHC (Large Hydron Collider) duurde tien jaar en kostte ongeveer 5 miljard dollar. De astronomen mogen ook niet klagen. Ruimtevaart is duur. Het ISS (International Space Station) heeft 100 miljard dollar gekost.  Er gaan met grote regelmaat zeer geavanceerde astronomische waarnemingssatellieten de ruimte in met als voorlopig hoogtepunt de James Webb Space Telescope, in 2021 gelanceerd na 30 jaar ontwikkeling, kosten $10 mld. In Chili wordt hard gewerkt aan de bouw van de Extremely Large Telescope (ELT). Deze grootste spiegeltelescoop ter wereld, met een spiegeldiameter van 38 meter, moet in 2027 in bedrijf komen; bouwkosten ca. 1 miljard dollar. In 2007 startte in het Franse Cadarache de bouw van ITER (International Thermonuclear Experimental Reactor), kosten 22 miljard dollar. Volgens de planning moeten bij ITER in 2025 de eerste testen plaatsvinden. In 2035 moet de reactor energie op basis van kernfusie gaan leveren. Het fusie-avontuur is dan 80 jaar oud.


De grote rol van een wereldoorlog


Na de beëindiging van de Tweede Wereldoorlog werd al snel duidelijk dat wetenschap en techniek een belangrijke, misschien wel doorslaggevende rol hadden gespeeld in het verloop van de oorlog. Voor fundamenteel onderzoek was tijdens de oorlog minder ruimte, maar de vertaling van beschikbare kennis in relevante toepassingen was daarentegen van het grootste belang. Welke kennis lag op de plank en kon worden benut om op het moment dat dat nodig was de positie en krijgsmiddelen te versterken?

Wij, Nederlanders hoorden pas na de oorlog welke vorderingen wetenschap en de techniek hadden gemaakt. In de door Duitsland bezette staten vielen tijdens de oorlog de R&D-activiteiten vrijwel stil. En van vrije academische uitwisseling van informatie was uiteraard ook geen sprake. Er was in ons land hooguit ruimte voor “overlevingsonderzoek”: voeding, gezondheid en vervanging van schaarse materialen. Voor de bezetter interessant onderzoek viel stil. Voor de bezetter mogelijk belangwekkende uitkomsten van vooroorlogse R&D werden weggemoffeld. Voorbeelden in ons land: betrokkenen bij het vooroorlogse radaronderzoek in Nederland konden net op tijd met hun resultaten naar het Verenigd Koninkrijk uitwijken. En de door Jan Bart Le Poole in Delft gebouwde elektronenmicroscoop, een verbetering van dit in Duitsland in de jaren ’30 uitgevonden type microscoop, werd gedemonteerd en verstopt in afwachting van betere tijden (die voor Le Poole en later voor Philips inderdaad kwamen). En ook een grote hoeveelheid uranium afkomstig uit Frankrijk (1939) die gedurende de oorlog in Delft werd verstopt en ons land na de oorlog (1951) een partnerschap met Noorwegen bezorgde bij de bouw van een kleine kernreactor die in 1951 in werking werd gesteld.

 

Bedevaart

Het VK was en bleef wel een vrijplaats en dat geldt in overtreffende trap voor de VS. Direct na de oorlog kwam een soort “bedevaart” op gang van Europese R&D-managers en -beleidsmakers om met eigen ogen te zien hoever de Amerikanen intussen gevorderd waren op alle mogelijke technologiegebieden die van belang waren geweest voor de overwinningen op Duitsland en Japan. En die vervolgens van belang konden worden voor de te verwachten confrontatie met het communisme, met als nieuwe tegenstander de Sovjet Unie. Duidelijk was wel dat de VS uit de oorlog waren gekomen als de nieuwe grootmacht, dominant op alle vlakken, ook op het gebied van wetenschap en techniek.

 

Oorlog in vredestijd

De groeiende welvaart, maar ook de blijvende wedijver tussen groepen en staten, werkten na de oorlog als aanjagers voor de ontwikkelingen op het gebied van wetenschap en techniek. Het bestaan, het wereldbeeld, de cultuur, ze zijn in toenemende mate beïnvloed door wetenschappelijke en technologische ontwikkelingen. Deze ontwikkelingen hadden en hebben een eigen dynamiek, maar ze kunnen niet los worden gezien van politieke, sociale en economische randvoorwaarden. Wetenschap en techniek ontwikkelen zich in een extern krachtenveld waarin allerlei belangen om de voorrang strijden. Een belangrijke aanjager was en is het Militair-Industrieel Complex. De term werd geïntroduceerd door de Amerikaanse socioloog Charles Wright Mills in zijn boek 'The power elite' (1956). De uitdrukking werd vooral bekend door president (en oud-generaal) Eisenhower. In zijn afscheidsboodschap aan het Congres en de Strijdkrachten op 17 januari 1961 waarschuwde hij de Amerikanen voor een vervlechting van belangen en de invloed van het Militair-Industrieel Complex:

“Ons leger is een vitaal bestanddeel voor het bewaren van de vrede. Onze wapens moeten klaar staan voor gebruik, zodat geen mogelijke aanvaller in de verleiding kan raken om zijn eigen vernietiging over zich af te roepen. Maar koste wat het koste moeten we ervoor waken dat het Militair-Industrieel Complex te veel ongewenste invloed krijgt.”

 

Toen op 9 november 1989 De Muur viel en het Oostblok instortte, leek de Koude Oorlog voorbij. West-Europa schakelde in hoog tempo over naar een vredes-economie. Naar nu blijkt te snel, te onbezonnen en te onoverzichtelijk. Zelfs de vredesbeweging nam gas terug. Nu, ruim dertig jaar later, begint het opnieuw te schuren en te piepen en wordt zelfs openlijk met atoomwapens gedreigd. Een kort geheugen, naïviteit, gebrek aan gemeenschapszin, decadentie, ze hebben ons blind gemaakt voor een realiteit waarin rattenvangers kunnen beschikken over ongekende mogelijkheden om mensen te misleiden, wetten naar hun hand te zetten en te pakken wat er te pakken valt.


In 1943 start men in de VS met de grootschalige productie van penicilline.






Oorlog als aanjager van technologische innovaties

Technologie speelde een kardinale rol in WO2. Sommige technologieën werden ontwikkeld in het interbellum van WO1 en WO2. Veel was een reactie op behoeften en problemen die zich tijdens WO2 aandienden en op de lessen die gedurende de oorlog werden geleerd. Sommige kwamen pas van de grond toen de oorlog tegen zijn eind liep. De innovaties in WO2 hadden een groot en blijvend effect op de periode na de oorlog.

 

Op allerlei gebieden werd bestaande technologie aangepast aan de eisen van de militairen. En op allerlei terreinen voltrokken zich belangrijke ontwikkelingen. Hieronder een globale opsomming:

 

Wapensystemen: op schepen, voertuigen, onderzeeboten, luchtmacht, tanks, artillerie, handwapens en ABC-wapens (Atoom, Biologisch, Chemisch).

Logistiek en Besliskunde: voertuigen voor het transport van militairen en voorzieningen. Het voeden en ondersteunen van een leger verspreid over de wereldbol. De planning en systematiek van bevoorrading en van militaire operaties. Het bracht een nieuw onderzoeksgebied voort: Operations Research, ook wel Besliskunde genoemd. De Amerikaanse RAND Corporation was lange tijd toonaangevend op dit gebied.

Communicatie en informatieverwerving: apparatuur voor remote sensing (waarnemen op afstand, zoals radar en sonar), navigatie, communicatie, cryptografie en spionage. De elektronische computer.

Geneeskunde: operatieve innovaties, chemisch geproduceerde medicijnen.

Rakettechnologie: geleide projectielen, middellange-afstand ballistische projectielen, automatische piloot.

 

WO2 was ook de eerste oorlog waarbij het uitschakelen van vijandelijke R&D-faciliteiten een serieuze opgave werd.

De oorlog was onder meer een belangrijke aanjager van nieuwe medische voorzieningen. Zo werd er in de VS een enorme faciliteit opgezet voor de productie van penicilline, het eerste breed beschikbare antibioticum, dat al in 1928 door Alexander Fleming was ontdekt. Het heeft zeer veel levens gered. Het succes van penicilline had zoals vaker, ook een gevaarlijke keerzijde: resistentie. Andere voorbeelden van nieuwe (oorlogs)medicijnen waren mepacrine (Atabrine) voor malariapreventie, sulfanilamide (middel tegen streptococceninfecties), bloedplasma, en morfine. Voorts de behandeling van brandwonden (waaronder huidtransplantatie), vaccinatie tegen tetanus, verbetering van gasmaskers en de toepassing van metaalplaten voor de behandeling van botbreuken.

 

1945. Eerste atoombom, bedoeld voor test.






Kernfysica voor energie-opwekking en atoomwapens

Een ander thema van groot militair en politiek belang was de ontwikkeling en inzet van het atoomwapen, gebaseerd op fundamenteel onderzoek in de jaren dertig. Eind jaren dertig ontdekten fysici dat kernen van de zwaarste atoomsoorten, zoals uranium, konden splijten als ze door een neutron getroffen werden. Daarbij kwam enorm veel energie vrij. Bij de splijting bleken nieuwe neutronen vrij te komen waardoor een kettingreactie kon optreden. Onder gecontroleerde omstandigheden zou zo een nieuwe spectaculaire energiebron beschikbaar kunnen komen, de kernreactor. En als het proces van neutroneninvangst werd gestimuleerd zou een nieuw wapen met een onvoorstelbare ontploffingskracht gebouwd kunnen worden, de atoombom. De mensheid heeft beide wegen betreden. De nieuwe mogelijkheden hebben de wereld onomkeerbaar veranderd. Na de twee atoombommen op Hiroshima (6 augustus 1945, 74.000 doden) en op Nagasaki (9 augustus, 40.000 doden) kregen kernwapens vooral een afschrikkingsfunctie. Maar de verbreiding ervan blijkt moeilijk te stoppen waardoor het gevaar van het inzetten van deze wapens in de afgelopen tachtig jaar alleen maar is toegenomen. De eerste, experimentele kernreactor, werd in 1942 gebouwd door een team o.l.v. Enrico Fermi die toen verbonden was aan de universiteit van Chicago (de Chicago Pile 1). In een experimentele reactor in Idaho werd op 20 december 1951 voor het eerst elektriciteit opgewekt met kernenergie.


1951. Een kernreactor van Argonne National West laat voor het eerst vier lampen branden. Een bescheiden maar belangrijk begin.



 

De Russen waren in 1954 de eersten met een kerncentrale voor openbare stroomvoorziening in de stad Obninsk.

 

Ook Nederland is na de oorlog op de kernenergietrein gestapt. Er kwamen uiteindelijk twee productiereactoren, een in Borsele en een in Dodewaard. Alleen Borsele draait nog. De kernenergietoekomst werd in Nederland doorkruist door de vondst van een enorme hoeveelheid aardgas in Slochteren in 1959.

 

Na aanvankelijk optimisme over de betekenis van kernenergie voor de mondiale energievoorziening, kwam er in de jaren ’70 steeds meer kritiek los. Landen als Duitsland en Japan stopten hun activiteiten. Grote ongelukken en de voortgaande discussie over het opslagvraagstuk van hoog-radioactief afval speelden een belangrijke rol in de publieke discussie, evenals de kosten van de reactorbouw en de bijbehorende faciliteiten. We beleven op dit moment een nieuwe fase waarin het belang van kernenergie weer meer aandacht krijgt. Belangrijke overwegingen: minder afhankelijkheid van in te kopen fossiele energiedragers, stabiliteit in de energievoorziening (niet afhankelijk van wind en zon, continuïteit in daluren), groeiende elektrificatie, inherent veilige ontwerpen, geen CO2-uitstoot, weinig afval. Intussen gaat het onderzoek aan de ontwikkeling van een kernfusiereactor door. Deze nieuwe technologie kan potentieel het energieprobleem oplossen. Maar er groeien wel twijfels als we bedenken dat het de afgelopen 80 jaar nog niet gelukt is om een dergelijke energiebron productief tot leven te wekken. Vooralsnog wordt het onderzoek voortgezet. Het principe werkt, nu nog de industriële schaal. Wel wordt de omvang van nieuwe prototypes steeds groter en de constructie steeds complexer (en daarmee duurder).


Duitsers tegen Duitsers

Veel Duitse wetenschappers, waaronder 19 Nobelprijswinnaars, weken al voor de oorlog uit naar de VS en UK. Een echte brain drain. Het ontlokte Ian Jacob , de secretaris van Winston Churchill, de volgende beroemde uitspraak:


"The Allies won the War because our German scientists were better than their German scientists"

 

Vannevar Bush

De man die in en na de oorlog een grote rol heeft gespeeld in de organisatie van het Amerikaanse kennissysteem, was Vannevar Bush (11 maart 1890 – 28 juni 1974). De VS waren nauwelijks voorbereid op de Tweede Wereldoorlog. De investeringen in defensieonderzoek waren minimaal. Wat er gedaan werd, werd uitgevoerd door militair personeel. Het leger had geen hoge dunk van burgerdeskundigen die men beschouwde als commerciële types. Bush zag de noodzaak van coördinatie tussen militaire en civiele partijen en de overheid. En als de VS betrokken zouden raken bij een oorlog dan moest ook het bedrijfsleven aansluiten.

 

In 1940 werd Vannevar Bush door president Roosevelt benoemd tot voorzitter van de NDRC (National Defense Research Committee). Bush had zelf aangedrongen op de totstandkoming van dit orgaan, omdat hij tijdens de Eerste Wereldoorlog had gezien hoe gebrekkig de samenwerking tussen civiele wetenschappers en het leger was. Hij had de president binnen tien minuten overtuigd van zijn idee hoe het beter kon. In regeringskringen werd vervolgens geklaagd dat Bush met voorbijgaan aan alles en iedereen een greep naar de macht had gedaan. Bush had later weinig moeite om deze visie te bevestigen. Uiteindelijk zou zijn coördinatie van wetenschappelijke inspanningen essentieel blijken voor de overwinning van de Geallieerden in de Tweede Wereldoorlog.

In 1941 werd de NDRC onderdeel van het Office of Scientific Research and Development, met Bush als directeur - het bureau dat uiteindelijk de leiding zou krijgen over het Manhattanproject (ontwikkeling van de atoombom) en dat gedurende de Tweede Wereldoorlog ook alle overige wetenschappelijke onderzoeksinspanningen ten behoeve van het leger zou coördineren.

 

“Science, The Endless Frontier”

In juli 1945 stelde Vannevar Bush in zijn beroemde rapport “Science, The Endless Frontier” de vorming voor van wat in 1950 de National Science Foundation zou worden. De banden tussen wetenschap, industrie en leger, zoals die tijdens de oorlog waren ontstaan, werden zo officieel bestendigd. Bush trad bovendien op als mede-oprichter van Raytheon, het bedrijf dat een belangrijke rol zou gaan spelen in de naoorlogse defensie-industrie.

Vannevar Bush beklemtoonde het belang van vrijheid in het fundamentele onderzoek. “Laat vele bloemen bloeien”. Als het er dan echt op aankomt, zoals bij het uitbreken van een oorlog, zal er kennis zijn die ineens van levensbelang zal blijken. Deze visie kreeg aanvankelijk veel bijval. Ook de grote ondernemingen met hun corporate R&D-faciliteiten, denk aan Philips met zijn NatLab en concurrent en voorbeeld General Electric in de VS, zaten aanvankelijk op die lijn. In de jaren zestig en zeventig kantelde het beeld. Japan volgde op het punt van kennisverwerving een geheel andere strategie die zeer effectief bleek.

De ontwikkelingen in de VS bleven uiteraard niet onopgemerkt. Het is dan ook geen toeval dat in dezelfde tijd in Europa vergelijkbare stappen werden gezet. Zo werd in 1950 in ons land de organisatie voor Zuiver-Wetenschappelijk Onderzoek (ZWO) opgericht. In Duitsland in 1951 de Deutsche Forschungsgemeinschaft (DFG) en in 1952 het Fraunhofer Gesellschaft (vergelijkbaar met TNO). Eerder was na de inval van Duitsland in Polen in 1939 in Frankrijk het Centre National de la Recherche Scientifique (CNRS) opgericht. Ons TNO was in 1932 opgericht maar leidde aanvankelijk een gebrekkig bestaan. Pas tijdens de bezetting werd haar betekenis erkend. Toen na de oorlog duidelijk werd dat nieuwe technologie van doorslaggevende betekenis was geweest voor de overwinning, leidde dat tot een grote maatschappelijke waardering voor het onderzoeksveld. De TNO-organisatie kon na de oorlog volwassen worden (een beetje geholpen door de Amerikaanse Marshall-hulp). Zo werd na de oorlog zelfs het Nederlandse defensieonderzoek bij TNO ondergebracht.

 


De ENIAC (1946) was een van de eerste volelektronische computers. Een zwaargewicht met zijn 18.000 elektronenbuizen (die regelmatig vervangen moesten worden). Met name vrouwen hielden de machine draaiende.


De computer

Van historisch belang was de introductie van de elektronische rekenmachine, de computer. Nog niet eens zozeer voor het verloop van de oorlog maar wel voor alles wat er daarna gebeurde. Rekenautomaten waren er al langer. Reeds Pascal en Leibniz bouwden rekenmachines (17de eeuw). In 1801 introduceerde de Franse wever Joseph Marie Jacquard een mechanisch weefgetouw dat geprogrammeerd kon worden voor verschillende motieven met behulp van ponskaarten die gemaakt werden met speciale schrijfmachine-achtige machines.

In 1934 gebruikte de Duitser Konrad Zuse (1910-1995) als eerste elektromechanische relais (eenvoudige flip-flop schakelaars) bij het bouwen van de Z1. Dat apparaat had al alle kenmerken van een computer: een toetsenbord voor de invoer van data, een stel schakelaars die fungeerden als een soort geheugen en een rij lampjes die de uitkomst van de bewerking weergaven. De Z3 en Z4 die Zuse tijdens de Tweede Wereldoorlog bouwde, hadden zelfs al elektronische relais. Ze werden gebruikt bij het ontwerpen van vliegtuigen.

 

Thomas Watson, de directeur van IBM (begonnen als producent van ponskaartmachines t.b.v. volkstellingen), bood in 1941 de Amerikaanse regering aan een computer te bouwen. Het resultaat in 1943 was de Mark I, de eerste elektro-mechanische computer. Een reusachtig apparaat dat onder meer berekeningen voor het Manhattanproject uitvoerde en door de Amerikaanse marine werd gebruikt om de banen van projectielen te berekenen. In het zelfde jaar kwam in Groot-Brittannië de Colossus beschikbaar, ook al een apparaat dat zijn naam eer aandeed, waarin een enorme batterij radiobuizen de data manipuleerde. Het was de eerste volelektronische rekenmachine. Met de Colossus was Alan Turing in staat de Enigmacode van de Duitsers te kraken.

In 1946 kwam in de VS de ENIAC (5,5 meter hoog en 24 meter lang, ongeveer 18.000 elektronenbuizen) gereed, na de Colossus de tweede elektronische computer. Hij werd gebruikt voor baanberekeningen van granaten en raketten en werd ook ingezet voor berekeningen ten behoeve van de ontwikkeling van de eerste waterstofbom.

In 1945 poneerde John von Neumann de basistructuur van een computer, zoals we die nog steeds kennen:

  • Een processordeel met een rekeneenheid en registers
  • Geheugeneenheden voor de opslag van data en van programma-instructies
  • Externe opslageenheid
  • In- en uitvoereenheden

 

Miniaturisering

Het gebruik van elektronenbuizen in computers was om allerlei redenen een moeizaam gedoe: groot, zwaar, veel energie en kwetsbaar (snel stuk). Bell Telephone Company had nog een ander probleem. De telefoonverbindingen over grote afstanden vroegen om tussenversterkers om het signaal op sterkte te houden. Buizenversterkers vroegen om een enorme onderhoudsinspanning. Daarom werd gezocht naar een alternatief. Dat diende zich aan met de uitvinding van de veel kleinere en energiearmere transistor in 1948, waar drie medewerkers van Bell Telephone Laboratories, Brattain, Bardeen en Shockley, in 1956 een Nobelprijs mee verdienden. In het zelfde jaar werd bij Amerikaanse M.I.T. (Massachusetts Institute of Technology) de eerste computer gebouwd waarin alleen transistoren waren toegepast. Een tweede generatie computers was geboren. Nederland deed met Electrologica (later overgenomen door Philips) in die tijd nog mee in de grote race die op gang kwam. Ik heb nog mijn eerste Algolprogrammaatjes op ponsband mogen aanbieden aan de X8 die in 1964 door de Rijksuniversiteit van Utrecht was aangeschaft. Algol verscheen in 1960. Het was samen met Fortran bedoeld als een programmeertaal die op verschillende computers geïnstalleerd kon worden. Nederlandse wetenschappers behoorden tot de pioniers.

 

Het was het begin van een weergaloze technologische race naar steeds kleinere componenten voor steeds krachtiger computers (en andere elektronica). De volgende stap was de komst van de geïntegreerde schakeling, ook wel IC of chip. Een uitvinding van Jack Kilby van Texas Instruments. De eerste klant was de Amerikaanse luchtmacht. Kleine, veelzijdige en betrouwbare elektronica was van bijzonder belang voor de militairen, met name voor toepassingen in de ruimtevaart die in die periode op gang kwamen. Ook Kilby verdiende een Nobelprijs (in het jaar 2000).



2024, ASML, Nieuwste type High-NA EUV-machine van ASML. Lithografie voor chipproductie.


Vanaf dat moment kwam de miniaturiseringsrace in de elektronica echt op gang. Het bracht Gordon Moore, een van de oprichters van chipproducent Intel in 1965 tot zijn uitspraak dat het aantal transistoren op een IC elk jaar verdubbelde. Later werd het elke twee jaar. Dit tempo bleef in tact zodat op een zeker moment gesproken werd van de Wet van Moore. De Wet werd in zekere zin een self fullfilling prophecy. De wereld van de micro-elektronica en de bijbehorende programmeurs koersten erop en bereidden zich voor op de voortdurende groei van de chipprestaties. De afgelopen jaren is het Nederlandse bedrijf ASML daarin steeds meer toonaangevend geworden. Het resultaat en de impact van deze ontwikkeling is nauwelijks te bevatten en heeft ons bestaan radicaal veranderd, inclusief wetenschap en techniek in brede zin.


Internet


Een revolutie, die weinigen hebben zien aankomen, was de komst van het internet. Twee sleuteltechieken waren bepalend voor het succes. Betrouwbare overdracht van informatie en betrouwbare en comfortabele presentatie van informatie. En de introductie van de personal computer, met een pioniersrol voor Apple en IBM.

Het zal niet verbazen als we hier weer een dominante rol van de Amerikaanse defensieorganisatie tegenkomen met een voor de hand liggende aanleiding, in dit geval te maken hebbend met de competitie met de Sovjet-Unie op het gebied van de ruimtevaart, een militair aandachtsgebied van de hoogste orde. De geslaagde lancering van de Spoetnik, de eerste kunstmaan, in 1957, en in 1961 Joeri Gagarin, de eerste mens in de ruimte, gaven het Amerikaanse superioriteitsgevoel een gevoelige knauw. Mede daarom werd in 1958 DARPA opgericht, Defense Advanced Research Projects Agency, vallend onder het Amerikaanse ministerie van defensie dat verantwoordelijk werd voor de ontwikkeling van militaire technologie. In 1968 begon DARPA (toen nog ARPA geheten) met de ontwikkeling van het ARPANET, de voorloper van het latere internet. 


1973. Kaart van ARPANET





De reden voor de oprichting van het ARPANET was een economische: computers waren duur, dus was het voordelig als onderzoeksinstituten die aan militaire projecten werkten, elkaars apparatuur konden delen. Er wordt wel beweerd dat het ARPANET bedoeld was als communicatienetwerk in tijden van kernoorlog (waarin allerlei verbindingen konden uitvallen), maar dit is een populair geworden misvatting. Omdat apparatuur en communicatielijnen in die tijd niet erg betrouwbaar waren, was het wel een eis dat ARPANET zo veel mogelijk operationeel zou blijven in geval van de onvermijdelijke lokale technische problemen. Overigens was het idee van een netwerk dat een kernoorlog kon overleven al geopperd door Paul Baran, die hiervoor een vergelijkbare architectuur voorstelde als die in het ARPANET gebruikt werd, maar deze suggestie speelde geen rol in de besluitvorming van ARPA. De truc was een pakketgeschakeld netwerk waarin de over te zenden gegevens opgesplitst worden in kleinere pakketjes met variabele grootte. Daardoor kunnen verschillende computers gelijktijdig gebruikmaken van het netwerk. De pakketten krijgen een adres en een kenmerk mee en worden door elkaar en zo nodig via verschillende wegen verstuurd. De ontvangstcomputer moet de voor hem bestemde gegevens opnieuw samenstellen.

Ook heeft DARPA een grote rol gespeeld in de ontwikkeling van kunstmatige intelligentie, waarover hierna meer.


Het gerenommeerde tijdschrift The Economist duidde DARPA ooit aan als “het agentschap dat de moderne wereld heeft geschapen”. Voorbeelden van innovaties waar DARPA nauw bij betrokken was: Moderna's COVID-19 vaccin, weersatellieten, GPS, drones, stealth technologie (voor radar onzichtbare vliegtuigen), voice interfaces, de personal computer en het internet. De lijst met successen is zo indrukwekkend dat DARPA wereldwijd navolging heeft gekregen.


Een van de eersten die met het idee van een soort internet kwam was nota bene onze Vannevar Bush die al in de jaren dertig ideeën ontwikkelde voor een machine die hij Memex (Memory Extender) doopte. Uiteindelijk kwam hij er in 1945 mee naar buiten. Het idee van de Memex was "een op microfilm gebaseerd apparaat waarin iemand al zijn belangrijke gegevens, boeken en communicatie met derden zou kunnen opslaan en dat zodanig georganiseerd zou zijn, dat de erin ondergebrachte informatie pijlsnel en uiterst flexibel zou kunnen worden opgeroepen en geraadpleegd." De Memex zou zich moeten gedragen als verlengstuk van het individuele, menselijke geheugen: snel, alomvattend en intuïtief.

Veel meer dan een conceptidee was het niet, maar het was interessant genoeg om Ted Nelson, die in 1963 de eerste opzet van hypertekst introduceerde, en Douglas Engelbart, die in het zelfde jaar ook de computermuis uitvond, op ideeën te brengen die zouden leiden tot de ontwikkeling van het hypertekstconcept (het verbinden van teksten met links). Technieken om dit op een scherm toe te passen en zichtbaar te maken met zogenoemde browsers waren essentieel voor het succes van deze techniek en vormden de basis voor het eind jaren tachtig op het CERN door Tim Berners-Lee ontwikkelde concept van een netwerk van computers waarlangs de hypertekst getransporteerd kon worden, het World Wide Web. Een wereld zonder internet is ondenkbaar geworden.


Kunstmatige Intelligentie (AI)


Kunstmatige Intelligentie (AI) wordt tegenwoordig op grote schaal, in talrijke varianten en in talrijke omgevingen toegepast. De ontwikkeling heeft een fase bereikt waarin vergelijkingen met menselijke intelligentie serieus beginnen te worden. Na een periode waarin de neuronale opbouw van het menselijk brein steeds meer als voorbeeld begon te dienen, naderen we nu volgens deskundigen het punt dat de artificiële breinen op steeds meer terreinen de mens zullen overvleugelen. En dat terwijl er al een groeiende bezorgdheid ontstaat over de ingrijpende gevolgen van AI-gebruik voor allerlei beroepsgroepen. Science fiction wordt realiteit als we ons moeten gaan afvragen of er voor de mens straks nog wel een plek is als robots en superieure AI autonoom kunnen gaan opereren. Mijn vraag is dan: “ze” kunnen straks misschien heel veel, en “ze” zijn straks superslim, maar wat moeten en willen ze er mee, als ze ons niet meer nodig hebben? Het zou wel eens kunnen dat “ze” echt bedreigend worden als we “ze” ook voorzien van een kopie van het “emotionele deel van ons brein”, de hersenstam. En is die kunstmatige Intelligentie wel zo breed geëquipeerd als het mensenbrein? Maar dat AI veel overhoop zal halen lijkt wel waarschijnlijk. We bevinden ons op dit moment (2025) zeker op een omslagpunt.


Machine Learning (ML)

Toen NASA eind jaren ‘90 met een computergestuurd voertuig Mars wilde verkennen, kwam men erachter dat die niet op afstand bestuurd kon worden. De grote afstand zorgde voor te veel vertraging in de communicatie. Zo ontstond de behoefte aan een autonoom voertuig dat zelfstandig obstakels en ravijnen kon ontwijken. NASA besloot daarom AI-wetenschappers in te schakelen. Zij hadden echter de grootst mogelijke moeite om dit probleem aan de hand van Symbolic AI op te lossen. Wanneer er veel verschillende situaties zijn waar een AI-toepassing voor kan komen te staan, is het bijna onmogelijk om voor al die verschillende situaties de regels voor hoe te handelen in te bouwen in het systeem. Dit probleem wordt ook wel de “explosion of the state action space” genoemd. Er werd daarom vanaf de jaren ’90 naar andere oplossingen gezocht. Een belangrijke wetenschapper in deze ontwikkeling was Rodney Brooks. Hij schreef in 1990 het artikel “Elephants Don’t Play Chess” en introduceerde hierin de “subsumption architecture”. Hierbij zat de representatie niet in de robots, maar was de omgeving zelf de representatie waarin ze leerden te manoeuvreren. In plaats van het handmatig programmeren van duizenden regels, leerden machines om zelf regels af te leiden uit grote hoeveelheden data.

 

Hierdoor ontstond een paradigmaverschuiving van Symbolic, naar Subsymbolic AI. Subsymbolisch betekent dat er niet langer regels zijn die in woorden zijn uit te drukken, maar dat het systeem van veel verschillende voorbeelden leert wat de regels zouden moeten zijn. In deze nieuwe fase van AI, ook wel Nouvelle AI genoemd, lag de focus in tegenstelling tot de Symbolic AI op het verwerven van kennis op een laag-niveau, zoals het herkennen van beelden en patronen. Dit vereist grote hoeveelheden data en training sets. Binnen machine learning zijn er verschillende manieren voor AI-systemen om te leren.

 

De eerste ideeën omtrent Kunstmatige Intelligentie vinden we terug in de wereld van de science fiction (SF). En zoals vaker, bleken die ideeën minder gewaagd dan de weldenkende lezer voor mogelijk hield. Het was Alan Turing, de held die in WO2 met de ENIAC de Duitse Enigmacode wist te kraken, die in 1950 met een opmerkelijke publicatie kwam die vaak als het serieuze begin van het AI-tijdperk wordt beschouwd. Titel: Computing Machinery and Intelligence. Turing besefte dat het fenomeen intelligentie slecht begrepen en gedefinieerd was. Om daar niet in vast te lopen kwam hij met zijn “Imitation Game”. Een ondervrager stelt vragen aan een mens en aan de computer en moet uit de antwoorden afleiden wie de mens en wat de machine is. Als de machine net zo vaak voor mens wordt aangezien als de mens, dan zal de machine als even intelligent als de mens worden beschouwd. Later ging dit de Turing-Test heten. Op deze wijze kon Turing discussies over intelligentie vermijden. In de loop van de tijd is er uiteraard ook over de waarde van de Turing-Test eindeloos gediscussieerd.

Reeds in de jaren vijftig begon de computer tegen de mens te schaken. De mens hield lang stand. Maar naarmate de machine meer kennis verzamelde en meer rekenkracht kreeg, werd hij sterker. In 1997 moest de mens zijn meerdere erkennen in de machine. Gary Kasparov verloor in zes partijen met 3,5-2,5 van Deep Blue II, de schaakcomputer van IBM.

 

Aanvankelijk volgde men het spoor van de mens als voorbeeld van het langs logische weg oplossen van problemen. Centrale stelling van de toonaangevende Dartmouth Workshop in 1956 (start van de AI-ontwikkeling) was: "every aspect of learning or any other feature of intelligence can be so precisely described that a machine can be made to simulate it". Men ontwikkelde programma’s waarmee ook met symbolen gemanipuleerd kon worden. Computers bleken in staat om langs die weg wiskundige problemen op te lossen: algebraïsche problemen, meetkundige stellingen bewijzen, Engels spreken. DARPA subsidieerde veel van dit werk.


In de loop van de jaren zestig kwam een tweede route op: het gebruik neurale netwerken, naar het voorbeeld van het menselijk brein. Er was veel optimisme. Zo stelde Marvin Minsky in 1970 (in Life Magazine): "In from three to eight years we will have a machine with the general intelligence of an average human being." Niet zo handig want toen de ambities niet werden waargemaakt, ging de geldkraan dicht.


In de jaren ’80 verscheen een nieuwe categorie kennisgerichte hulpmiddelen: Expert Systems. Gericht op beperkte kennisgebieden en daardoor beter praktisch en qua compositie te hanteren. Ze werden enthousiast in praktijk gebracht. Belangrijker nog was de opkomst van de nieuwe benadering langs de weg van neurale netwerken. Een sleutelmoment was de publicatie van een bundel artikelen onder de titel: Parallel Distributed Processing.


Rodney Brooks, Hans Moravec en aderen wezen er op dat een machine een “lichaam” moet hebben met zintuigen om dingen op te merken, te bewegen, te overleven en fysiek in de wereld te staan. Het vermogen daartoe moest analoog aan de oplossingen in het menselijk brein worden gerealiseerd. Intelligentie opbouwen vanaf de bodem zoals ook een mensenkind doet. Dus ook met vormen van belonen en straffen. En doelen stellen.

Eind jaren tachtig kwam het veld in een zware dip. De economie zat tegen en ook de basisontwikkeling verliep moeizamer dan verwacht. De geldstromen droogden op.

 

De R&D ging in andere omgevingen door en zo rond 2000 begon een nieuwe periode van vooruitgang en toenemende commerciële interesse. En DARPA was nog steeds betrokken, onder meer met een wedstrijd voor zelfsturende automobielen. Zo won in 20025 een robot van Stanford de “DARPA Grand Challenge” door een auto over een afstand van 131 mijl over een onverhard woestijnspoor te sturen. Twee jaar later won een team van de Carnegie Mellon University de DARPA Urban Challenge met als opgave om een zelfsturende auto 55 mijl veilig door een stedelijk gebied te laten rijden.


De ontwikkelingen versnelden in de loop van deze eeuw. Grote datahoeveelheden (big data) kwamen beschikbaar, computers werden krachtiger, sneller en goedkoper en er was intussen een hele verzameling aan geavanceerde leertechnieken beschikbaar, waaronder Deep Learning. Beeld- en videobewerking, tekstanalyse en spraakherkenning werden snel beter. De markt voor AI-producten begon sterk te groeien. Denk alleen al de opkomst van de chatbots. Rond 2015 werden verschillende bedrijven opgericht die aan de slag gingen met Artificial General Intelligence (AGI), zoals OpenAI en Google’s DeepMind. In dezelfde periode begon ook de zorg te groeien voor de mogelijke bedreigingen van de AI-ontwikkeling voor de positie en het primaat van de mens.

 

2024 Nobel Prizes

In 2024, the Royal Swedish Academy of Sciences awarded Nobel Prizes in recognition of groundbreaking contributions to artificial intelligence. The recipients included:

  • In physics: John Hopfield for his work on physics-inspired Hopfield networks, and Geoffrey Hinton for foundational contributions to Boltzmann machines and deep learning.
  • In chemistry: David Baker, Demis Hassabis, and John Jumper for their advancements in protein folding predictions.

 

Alle moderne AI-systemen opereren op basis van doelen (goals). Ze worden ontwikkeld om bepaalde uitkomsten te optimaliseren. Hier zit een pijnpunt. De machine kan de mens schade berokkenen bij het realiseren van de doelen. Een intelligente robot zou zelfs zijn eigenaar kunnen doden om te voorkomen dat deze de stekker uit het stopcontact trekt. Zo’n voorbeeld doet me erg denken aan een beroemd boekje van SF-schrijver Isaac Asimov “Ik, robot” (Engels: I, Robot). Het is een verzameling van negen korte sciencefictionverhalen. De verhalen verschenen tussen 1940 en 1950 onder andere in het tijdschrift Astounding Science Fiction. “Ik, Robot” verscheen in 1966 in het Nederlands. De verhalen hebben als gemeenschappelijk thema de uitwerking van de door Asimov opgestelde drie hoofdwetten van de robotica:


  1. Een robot mag een mens geen letsel toebrengen, noch laten overkomen.
  2. Een robot moet door mensen gegeven orders uitvoeren, behalve als die orders in strijd zijn met de eerste wet.
  3. Een robot moet zichzelf beschermen, zover als dat niet in strijd is met de eerste en tweede wet.

De ideeën van Asimov hebben veel invloed gehad op de latere discussies over de ethiek van het inzetten van intelligente robots.


Een van de aspecten die op dit moment, in de EU, aandacht krijgt is de invoering van de verplichting dat het onder alle omstandigheden mogelijk moet zijn om “de redeneergang” van een AI-systeem achteraf nog te kunnen nagaan. We weten hoe moeilijk dat is bij mensen. Het is dan ook de vraag of dat straks bij superintelligente AI-systemen wel gaat lukken, en dan met name in de gevallen dat autonome systemen in staat worden gesteld om hun eigen regels aan te passen zodat ze hun doelen efficiënter kunnen realiseren. Hier is het laatste woord nog niet over gezegd. Zeker niet waar andere partijen elders in de wereld wel eens heel anders over ethiek en doelen kunnen denken.


AI is mooi en fascinerend. Een ongekend nieuw hulpmiddel voor de mens. Ik zou willen dat het ook een hulpmiddel blijft. Want zelfs als hulpmiddel hebben we de afgelopen jaren al het nodige aan misbruik en foutief gebruik langs zien komen. Zo zou de economische crisis van 2008 het gevolg zijn geweest van foutief AI-gebruik. Radicale innovaties kunnen voor radicale ontsporingen zorgen.


De New York Times schreef in 2023: “At the heart of this competition is a brain-stretching paradox. The people who say they are most worried about AI are among the most determined to create it and enjoy its riches. They have justified their ambition with their strong belief that they alone can keep AI from endangering Earth”

 

In maart 2003 verscheen openbare brief met een oproep tot een moratorium van een half jaar. Hieronder de gegevens van Wikipedia.


Pause Giant AI Experiments: An Open Letter is the title of a letter published by the Future of Life Institute in March 2023. The letter calls "all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4", citing risks such as AI-generated propaganda, extreme automation of jobs, human obsolescence, and a society-wide loss of control. It received more than 30,000 signatures, including academic AI researchers and industry CEOs such as Yoshua Bengio, Stuart Russell, Elon Musk, Steve Wozniak and Yuval Noah Harari.

 

De brief kreeg brede belangstelling, maar van een pauze is het nog niet gekomen. AI-bedrijven hebben zwaar geïnvesteerd in de infrastructuur om nieuwe, gigantische AI-systemen te trainen. Maar het heeft er wel toe geleid dat de Amerikaanse overheid geactiveerd is om na te denken over de snelle opkomst van AI-systemen en de toenemende publieke zorgen over de risico’s van steeds krachtiger AI.


Opmerkelijk was de reactie van Eliezer Yudkowsky die stelde dat de brief nog lang niet ver genoeg ging. Hij vroeg om een permanente stop. Yudkowsky is medeoprichter en onderzoeker bij het Machine Intelligence Research Institute (MIRI), een non-profit onderzoeksinstituut, gevestigd in Berkeley (Californië). Hij is vooral bekend om zijn popularisering van ideeën over “vriendelijke” kunstmatige intelligentie. Zijn werk over het vooruitzicht van een op hol geslagen intelligentie-explosie beïnvloedde filosoof Nick Bostroms boek “Superintelligence: Paths, Dangers, Strategies”. Yudkowsky is bang dat het nog heel lang gaat duren voordat er een oplossing is gevonden voor het “alignment problem”. Met alignment wordt hier bedoeld de programmering van een AI-systeem zodat dit zich richt naar de doelen, voorkeuren of ethische principes van een persoon of groep. Als het daar misgaat kan dat volgens Eliezer zelfs tot het uitsterven van de mensheid kunnen leiden. Geavanceerde AI-systemen kunnen ongewenste strategieën ontwikkelen, macht zoeken of proberen te overleven, die het behalen van de doelen mogelijk maken. We zien weer een medaille met twee zijden. Dit verhaal zit er vol mee. En tot nu toe zijn macht, rijkdom en succes altijd boven komen liggen.


80 jaar na het einde van WO2 zou er wel eens nieuwe een mondiale bedreiging van de mensheid in de maak kunnen zijn. Wie moet je geloven? Wat kunnen we nog geloven? Misschien het aloude spreekwoord: “een gewaarschuwd mens telt voor twee”.

Waarom gaat de tijd zo snel als je ouder wordt?


22 april 2025. Ik ben nu precies een uur tachtig. Ik ben nog krachtig maar begin toch een beetje onzeker te lopen. Heb ik nu ook een aligmentprobleem?


22 april 2025, Gerard van de Schootbrugge