Microsoft legt beperkingen op aan gebruik Bing-chatbot
Microsoft beperkt het gebruik van de Bing-chatbot. Het bedrijf stelt een limiet van vijftig reacties (en dus vragen) per dag, en een maximum van vijf vragen per sessie.
Microsoft acteert met de limiet op ongewenste, verwarde reacties van de chatbot. Vorige week liet de softwaregigant weten dat de chatbot bij gesprekken met meer dan 15 vragen verward kon raken en antwoorden kon geven ‘die niet in lijn lagen met de gewenste gesprekstoon’. Om die reden komt het bedrijf nu met een limiet voor zijn chatbot: per sessie mogen gebruikers vijf vragen stellen. Pas zodra de chatgeschiedenis is gewist en gebruikers dus met een schone lei beginnen, kunnen ze weer vragen stellen aan de AI-tool.
Beperkingen van Bing-chatbot
Het Bing-team zegt de beperkingen te hebben afgestemd op het gebruik van de chatbot. Slechts ‘1% van de chatgesprekken beslaan meer dan 50 berichten’, licht Bing toe in een blogbericht. Gebruikers die de limiet van tien sessies bereiken, moeten alvast tot de volgende dag wachten om de chatbot te mogen aanspreken. Microsoft zegt deze limieten in de toekomst te willen heroverwegen en gebruikt feedback van gebruikers om zijn diensten te optimaliseren.
Microsoft licht in zijn bericht niet toe waarom het een beperking oplegt van maximaal 50 berichten per dag, per gebruiker. Gezien gebruikers na vijf berichten de gespreksgeschiedenis moeten wissen, spelen vijandige of verwarde reacties alvast geen rol. Die verschijnen volgens het bedrijf meestal pas na vijftien berichten.
Openbare test met AI-chatbot
Het bedrijf schreef vorige week verrast te zijn over hoe men de ChatGPT-aangedreven chatbot gebruikt. Zo was het verbaasd dat gebruikers de chatbot voor entertainmentdoeleinden gebruiken. Hoewel Microsoft dus een ander gebruikspatroon voor ogen had, ziet het de huidige uitrol van de Bing-chatbot ook als de enige manier om AI-producten te verbeteren.
Google versus Microsoft
Microsoft pakt alvast een voorsprong op zijn voornaamste concurrent, Google. Hoewel dat bedrijf eveneens een chatbot, genaamd Bard, in ontwikkeling heeft, zou die voorlopig ‘niet geschikt zijn om naar gebruikers uit te rollen’. Tijdens de aankondiging van Bard ging het al meteen mis: de chatbot gaf een verkeerd antwoord op een gestelde vraag. Een kostbaar foutje; Google-moederbedrijf Alphabet verloor miljarden dollars in beurswaarde kort nadat de fout werd ontdekt.
Hooggeplaatste Google-medewerkers noemden de lancering daaropvolgend ‘niet des-Googles’ en ‘veel te overhaast’. Google zou de lancering in een stroomversnelling hebben gebracht om met de chatbot van Microsoft te kunnen concurreren. Voorlopig komt het daar in elk geval niet van: eerst moeten medewerkers handmatig juiste informatie ingeven om antwoorden van Bard accurater te maken.