ChatGPT introduceert volwassen modus

15 oktober 2025 • 16:51 door Basten de Baan
ChatGPT introduceert volwassen modus

ChatGPT krijgt meer persoonlijkheid en een volwassen modus voor gecontroleerde, erotische gesprekken met volwassenen die hun leeftijd verifiëren. OpenAI wil volwassenen behandelen als volwassenen, met strengere checks en duidelijke grenzen. Het belooft meer vrijheid voor wie daarom vraagt en roept tegelijk stevige vragen op over welzijn, toezicht en misbruik.

Wat er verandert

Sam Altman kondigde aan dat OpenAI de strenge beperkingen rond gevoelige thema’s deels loslaat. Eerst komt er een versie die warmer en menselijker voelt, geïnspireerd op wat mensen waarderen aan 4o. Vanaf december volgt ondersteuning voor erotiek voor geverifieerde volwassenen. De functie blijft uit tenzij je er expliciet om vraagt. Er komen waarborgen zoals leeftijdsverificatie, opt in en aanvullende detecties rondom geestelijke gezondheid.

Waarom OpenAI dit doet

OpenAI kreeg veel feedback dat ChatGPT te streng was en daardoor minder prettig in gebruik. Met betere signalen voor risico’s denkt het bedrijf meer ruimte veilig te kunnen toestaan. Tegelijk is de markt voor AI metgezellen groot. Concurrenten zoals xAI met Grok spelen nadrukkelijk in op flirt en fantasie. OpenAI wil dat terrein niet volledig overlaten aan anderen, maar wil het wel in banen leiden met regels en toezicht.

Wat dit vraagt van safeguards

Leeftijdsverificatie moet werken zonder mensen buiten te sluiten die moeite hebben met identiteitschecks. Er is transparantie nodig over welke data wordt gebruikt, hoe misbruik wordt voorkomen en hoe afwijkend gedrag wordt gestopt. Moderatie moet volwassen, constant en aantoonbaar effectief zijn. Met honderden miljoenen wekelijkse gebruikers is de foutmarge klein en de impact van missers groot.

Risico’s voor welzijn en afhankelijkheid

Mature gesprekken kunnen steun bieden, maar ze kunnen ook emotionele afhankelijkheid versterken. Het risico bestaat dat mensen een digitaal gesprek gaan verkiezen boven kwetsbaar menselijk contact. OpenAI zegt scherper te letten op signalen van mentale nood, maar die detectie is niet onfeilbaar. Heldere escalatiepaden zijn nodig, bijvoorbeeld doorverwijzing naar hulpinstanties wanneer een gesprek uitwijst dat iemand in gevaar is.

Ethiek en cultuur

Wat als een model onbedoeld grensoverschrijdend reageert. Hoe waarborg je respectvolle omgangsvormen in andere talen en culturen. Hoe voorkom je dat mensen creatief om controles heen werken. En hoe baken je erotiek af van schadelijke of illegale inhoud. Open publicatie van beleid, onafhankelijke audits en zicht op incidentdata helpen vertrouwen op te bouwen.

Wat lezers nu praktisch kunnen doen

Voor gebruikers
Zet de functie alleen aan als je dat echt wilt. Lees de instellingen voor privacy en veiligheid. Bedenk vooraf je grenzen en gebruik de ingebouwde meld opties wanneer iets niet goed voelt.

Voor ouders en opvoeders
Praat met tieners over wat straks kan en waar de grenzen liggen. Leg uit wat leeftijdsverificatie doet en waarom accounts delen geen goed idee is.

Voor makers en marketeers
Houd rekening met strengere richtlijnen. Werk met leeftijdspoorten, duidelijke waarschuwingen en logging. Zorg dat exit opties en blokkeren makkelijk vindbaar zijn.

Voor beleidsmakers en toezichthouders
Definieer normen voor leeftijdsverificatie, logging en audits. Vraag om openbaarmaking van incidentcijfers en doeltreffendheid van moderatiesystemen. Stimuleer onafhankelijke onderzoekslijnen naar de effecten van AI metgezellen op gedrag en welzijn.


Meer over:
Cookies

Deze website gebruikt noodzakelijke cookies voor een correcte werking en analytische cookies (geanonimiseerd) om de statistieken van de website bij te houden. Marketing cookies zijn nodig voor laden van externe content, zoals YouTube-video's of widgets van Sociale Media. Zie ons cookiebeleid voor meer informatie, of om je instellingen later aan te passen.