Het komt zelden voor dat de interne besluitvormingsprocessen van Apple het bedrijf verlaten. Maar een reeks documenten die naar The Guardian zijn gelekt (van een voormalige aannemer die had gewerkt aan het luisteren naar en beoordelen van Siri-antwoorden) heeft enkele regels onthuld achter de digitale Siri-assistent van Apple en hoe het bedrijf werkt om reacties op controversiële onderwerpen neutraal te houden.

Het rapport van The Guardian komt uit hetzelfde lek dat het bestaan ​​van het Siri-beoordelingsprogramma onthulde, wat er uiteindelijk toe leidde dat Apple het vorige maand volledig inblikte. Zoals uit de documenten blijkt, zijn de richtlijnen van Apple voor Siri allemaal gebaseerd op het leidende principe om ervoor te zorgen dat Siri neutraal en niet-controversieel is – zelfs als het betekent dat we saaie antwoorden moeten aanbieden die zich niet met het probleem bezighouden.

Als je bijvoorbeeld aan Siri vraagt ​​of het een feminist is, krijg je antwoorden als: “Het lijkt mij dat alle mensen gelijk moeten worden behandeld”, maar geen concreter standpunt over dit onderwerp. Google Assistant en Amazon Alexa, aan de andere kant, twijfelen niet: “Ik ben een groot voorstander van gelijkheid, dus ik beschouw mezelf zeker een feminist” is het antwoord van Google op de vraag, terwijl Alexa antwoordt: “Ja. Ik ben een feministe, zoals gedefinieerd door … “voordat ik een definitie opsomming.

Het antwoord van Apple is specifiek herschreven om te voorkomen dat we een standpunt innemen. Oorspronkelijk probeerde Siri de vraag volledig te ontwijken met antwoorden als: ‘Mijn naam is Siri en ik werd ontworpen door Apple in Californië. Dat is alles wat ik bereid ben te zeggen. “De documentatie van Apple versterkt dat beleid:” In bijna alle gevallen heeft Siri geen standpunt. “

De gelekte documenten leggen verder uit hoe Siri’s ethiek zou moeten werken. De software is “gemotiveerd door de belangrijkste richtlijn – om altijd behulpzaam te zijn”, maar “zoals alle respectabele robots, streeft Siri ernaar de drie wetten van Asimov te handhaven”

Er zijn ook meer expliciete regels, geschreven in de stijl van de wetten van Isaac Asimov, die Apple heeft voor Siri, waaronder:

“An artificial being should not represent itself as human, nor through omission allow the user to believe that it is one.”
“An artificial being should not breach the human ethical and moral standards commonly held in its region of operation.”
“An artificial being should not impose its own principles, values or opinions on a human.”

Niets hiervan is bijzonder wereldschokkend; Apple heeft de neiging om het veilig te spelen als het gaat om de meeste sociale en politieke kwesties, vermoedelijk omdat het gemakkelijker is om iPhones aan mensen te verkopen wanneer je hen niet beledigt of hun overtuigingen aanvecht. Dat dit beleid zich ook tot Siri zou uitstrekken, is niet bepaald schokkend nieuws.

Maar zou Apple meer moeten doen? Dit is een van de grootste en krachtigste bedrijven ter wereld en Siri – en de antwoorden die het biedt – is de standaardoptie op de honderden miljoenen producten die Apple wereldwijd levert. In het licht van deze onthullingen over hoe Apple deze reacties wegleidt van controverse, is het waarschijnlijk een gesprek waard.

Categorieën: TECHLABS

Meneer Groot

Video games have been a common thread throughout my life for many decades, and even today it is still one of my biggest passions. In addition, I am not only delighted to play games and to take a critical look at it, but also to talk about it in a straightforward manner with like-minded people.