Czy jesteś pewien, że model AI, za który płacisz, jest naprawdę tym, za co się podaje? Naukowcy z CISPA Helmholtz Center for Information Security przeprowadzili właśnie systematyczny audyt 17 ukrytych API używanych w tysiącach projektów. Zbadali, czy ci zewnętrzni sprzedawcy, którzy oferują tańszy dostęp do modeli frontier, takich jak GPT-5, rzeczywiście dostarczają autoryzowaną usługę, czy też oszukańczą imitację. Wyniki ujawniają ogromne różnice w wydajności: te ukryte usługi wykazują rozbieżność wydajności sięgającą 47,21 procent w porównaniu do oficjalnych API i nie zdają prawie 46 procent testów weryfikacji tożsamości. To oszustwo zasadniczo podważa wiarygodność badań AI oraz bezpieczeństwo aplikacji budowanych na tych fałszywych modelach.