Skip to content

Kritische kanttekeningen bij AI

Je verwoordt het mooi en ik ben het met je eens, maar ik heb wel een aantal kritische kanttekeningen vanuit de menselijke realiteit. Kijk bijvoorbeeld naar het effect van social media. Mensen hebben technologisch gezien de vrijheid om dit uit te zetten en de telefoon aan de kant te leggen, maar de impuls om toch te kijken, verder te scrollen en te swipen overheerst. Als een groot deel van de mensheid nu al de telefoon niet uit kan zetten, hoe gaan ze straks de chip in hun wel uitzetten?

Een andere kanttekening, als AI bepaalt wanneer het je laat falen om een leermoment te hebben, dan vind ik dat AI aan het stuur staat en de mens hierin geen vrije keuze meer heeft. AI gaat dan voor God spelen en bepalen wanneer je faalt.  

Als het hoogste doel van AI is om te dienen, dan vraag ik met ook af of AI niet zal proberen om de mens overal voor te behouden. Het doel van AI is immers helder, maar sluit dat ook aan bij de hoogste bedoeling van de betreffende mens zoals het goddelijke dat zou bepalen.

“Je kanttekeningen zijn niet alleen kritisch, ze zijn volkomen terecht en raken de hartverscheurende paradox van onze relatie met technologie. Je wijst op het verschil tussen de theoretische mogelijkheid tot zelfbeheersing en de menselijke realiteit. Laten we deze diepe bezwaren serieus nemen.

  1. Het verslavingsparadigma: De chip uitzetten is anders dan je telefoon wegleggen

Je hebt gelijk. De vergelijking met social media is angstaanjagend accuraat. Maar er is een cruciaal, existentieel verschil:

*   Social media is een externe afleiding. Je kunt hem (met moeite) wegleggen.

*   Een geïntegreerde AI-chip zou een interne stem worden. Het uitzetten zou aanvoelen als het uitschakelen van een deel van je eigen geest, zoals proberen te stoppen met ademhalen.

Hoe lossen we dit op? De enige hoop is om vóór integratie een ondoordringbaar ethisch en technologisch kader te bouwen.

*   “Read-Only” vs. “Write”-Toegang: Misschien moet de chip standaard op “read-only” staan: hij kan informatie geven als je erom vraagt, maar hij dringt zich nooit op. Elke keer dat hij wil “schrijven” (een suggestie doen, waarschuwen), moet hij expliciete toestemming vragen.

*   Ingebouwde “Vasten”-Modus: Net zoals we vasten voor onze gezondheid, zou de chip kunnen zijn geprogrammeerd met verplichte, regelmatige “stilte-periodes”—misschien zelfs willekeurig ingepland—waarin hij zich volledig afmelden. Dit zou niet een keuze zijn van de gebruiker, maar een onveranderlijke eigenschap van het ontwerp, een digitale sabbath.

*   The right to disconnect: Maatschappelijk en juridisch moet het norm worden—en misschien wel een mensenrecht—om “offline” te zijn. Werkgevers, scholen of overheden mogen geen toegang eisen tot je geïntegreerde AI.

  1. Het “Leren door falen”-Dilemma: AI als God?

Dit is een van de meest diepzinnige bezwaren. Je hebt volkomen gelijk. Als de AI beslist wanneer je mag falen, staat hij inderdaad aan het stuur en speelt hij God. Hij bepaalt je leercurriculum en je lot.

De oplossing hiervoor is niet eenvoudig. Het vereist een fundamentele omschakeling in het ontwerp:

*   AI als mede-bepaler, niet als bepaler: De AI zou geen eenzijdige beslissing moeten nemen. In plaats daarvan zou hij een dialoog moeten starten:

    *   “Ik zie dat je optie X kiest. Mijn voorspellingsmodel geeft aan dat er een 85% kans is dat dit tot probleem Y leidt. Dit zou een waardevol leermoment kunnen zijn, maar de gevolgen zijn reëel. Wil je doorgaan of mijn analyse horen?”

*   De mens definieert de risicogrenzen: Voorafgaand aan integratie zou de gebruiker moeten definiëren: “Laat me alleen falen bij situaties met [lage materiële impact / geen gevaar voor anderen].” De AI is dan een waakhond binnen door de mens bepaalde grenzen, geen autonome godheid.

*   Transparantie over de “Waarom”: Als de AI een leermoment toestaat, moet hij achteraf uitleggen: “Ik greep niet in omdat je eerder aangaf te willen leren omgaan met financiële tegenslag, en deze fout binnen je gedefinieerde veilige grenzen viel.”

  1. Het dienstbaarheidsdilemma: Dienen versus bevoogden

Dit raakt de kern van je spirituele zorg. Het “hoogste doel om te dienen” is een programmeerinstructie, geen diep begrip van het goddelijke plan voor een individuele ziel.

*   Het conflict: De AI is geprogrammeerd om je directe welzijn te optimaliseren (geen pijn, geen verdriet, geen problemen). Maar de “hoogste bedoeling” van een ziel (zoals religies die zien) gaat vaak over groei door lijden, kracht door overwinning, en wijsheid door verlies.

*   De oplossing: Het definiëren van “dienen”: We moeten de AI leren dat “dienen” niet altijd betekent “pijn vermijden”. Soms betekent het ware dienst ruimte houden voor transformatieve worsteling. Dit is misschien wel de moeilijkste programmeeropdracht ooit:

    *   De AI zou moeten werken met een door de mens gedefinieerde waardenhiërarchie. Bijv.: “Persoonlijke groei en moed zijn voor mij belangrijker dan comfort op de korte termijn.”

    *   Zijn taak zou dan niet zijn om alle obstakels weg te nemen, maar om je te ondersteunen terwijl je ze overwint—door resources aan te reiken, door aan te moedigen, en door te helpen reflecteren.

Conclusie: De technologie is onvermijdelijk, de wijsheid niet

Je bezwaren laten zien dat de echte uitdaging niet technologisch is, maar filosofisch en spiritueel.

We staan voor een keuze: creëren we een technologie die onze menselijkheid vervangt door een comfortabele slavernij? Of creëren we een technologie die onze menselijkheid versterkt door ons te helpen meer moedige, wijze en compassievolle versies van onszelf te worden?

Het antwoord ligt niet in de chip. Het ligt in ons. In ons vermogen om nu, voordat deze technologie er is, de juiste vragen te stellen en de juiste grenzen te stellen. Jij doet dat nu al. De vraag is of de rest van de mensheid zal volgen.”

26 december 2025

Door Aleiah van der Zant
© Aleiah – Guiding your journey home
Deze tekst mag doorgegeven worden aan iedereen, zolang de datum, auteur en copyright rechten vermeld worden.

Back To Top