AI-bedrijf Anthropic heeft stilletjes de gebruikslimieten voor zijn AI-model ‘Claude Code’ aangescherpt. Dit treft vooral gebruikers die intensief van de dienst gebruikmaken, ook zij met dure abonnementen. Gebruikers ontvangen plotseling meldingen dat hun limiet is bereikt, zonder enige waarschuwing of duidelijke uitleg. Dit leidt tot grote frustratie en onzekerheid. Bedrijven en professionals die afhankelijk zijn van deze AI voor hun projecten, kunnen hun werk niet voortzetten. Het gebrek aan transparantie over de wijzigingen schaadt het vertrouwen. Het toont aan hoe belangrijk duidelijke communicatie is bij het aanbieden van AI-diensten, vooral als abonnementsmodellen variabele limieten hanteren. Voor directies en managers betekent dit dat u moet letten op de contractvoorwaarden en communicatie van AI-leveranciers. Onverwachte wijzigingen kunnen operationele problemen veroorzaken en de productiviteit van uw team beïnvloeden. Dit onderstreept het belang van betrouwbare partnerschappen bij de adoptie van AI-technologie.