AI-systemen kunnen het fout hebben en het niet toegeven

Om een kunstmatig intelligentiesysteem te bouwen dat mensen kunnen vertrouwen met verantwoordelijkheden van leven of dood, zullen machines een zeer menselijke eigenschap moeten ontwikkelen: Hun fouten toegeven.

AI systemen kunnen het fout hebben en het niet toegeven

Door Tara Haelle

5 april 2022 C Kunstmatige intelligentiesystemen worden gebouwd om ziekten te helpen diagnosticeren, maar voordat we ze kunnen vertrouwen met verantwoordelijkheden op leven en dood, zal AI een zeer menselijke eigenschap moeten ontwikkelen: Fouten toegeven.

En de waarheid is: dat kunnen ze nog niet.

Volgens onderzoekers van de Universiteit van Cambridge en de Universiteit van Oslo kan intelligente computertechnologie vaker het juiste antwoord op een probleem geven dan dat ze zich realiseert dat ze een fout heeft gemaakt.

Deze fundamentele fout, zo melden zij, is geworteld in een wiskundig probleem.

Van sommige wiskundige beweringen kan niet worden bewezen of ze waar of onwaar zijn. Dezelfde wiskunde die de meesten van ons op school hebben geleerd om antwoorden te vinden op eenvoudige en lastige vragen, kan vervolgens niet worden gebruikt om onze consistentie in de toepassing ervan te bewijzen.

Misschien hebben we het juiste antwoord gegeven en misschien ook niet, maar we moesten ons werk controleren. Dit is iets wat computeralgoritmen meestal niet kunnen, nog steeds niet.

Het is een wiskundeparadox die voor het eerst werd vastgesteld door de wiskundigen Alan Turing en Kurt G?del aan het begin van de 20e eeuw, dat sommige wiskundeproblemen niet kunnen worden bewezen.

De wiskundige Stephen Smale noemde deze fundamentele AI-fout vervolgens bij de 18 onopgeloste wiskundeproblemen van de wereld.

Voortbouwend op de wiskundige paradox stelden onderzoekers, onder leiding van Matthew Colbrook, PhD, van het Department of Applied Mathematics and Theoretical Physics van de Universiteit van Cambridge, een nieuwe manier voor om de probleemgebieden van AI te categoriseren.

In de Proceedings of the National Academy of Sciences brengen de onderzoekers situaties in kaart waarin AI-neurale netwerken C gemodelleerd naar het netwerk van neuronen C van het menselijk brein daadwerkelijk kunnen worden getraind om betrouwbaardere resultaten te produceren.

Het is belangrijk vroeg werk dat nodig is om slimmere, veiligere AI-systemen te maken.

Hot