OpenAI i Anthropic wzajemnie testują modele pod kątem halucynacji i kwestii bezpieczeństwa
Jinse Finance poinformowało, że OpenAI i Anthropic niedawno przeprowadziły wzajemną ocenę modeli, aby wykryć potencjalne problemy, które mogły zostać pominięte podczas własnych testów. Obie firmy ogłosiły w środę na swoich blogach, że tego lata przeprowadziły testy bezpieczeństwa na publicznie dostępnych modelach AI drugiej strony, sprawdzając, czy modele wykazują tendencję do generowania halucynacji oraz tzw. problem „misalignment”, czyli sytuację, w której model nie działa zgodnie z oczekiwaniami deweloperów. Oceny te zostały przeprowadzone przed premierą GPT-5 przez OpenAI oraz wydaniem Opus 4.1 przez Anthropic na początku sierpnia. Anthropic została założona przez byłych pracowników OpenAI.
Zastrzeżenie: Treść tego artykułu odzwierciedla wyłącznie opinię autora i nie reprezentuje platformy w żadnym charakterze. Niniejszy artykuł nie ma służyć jako punkt odniesienia przy podejmowaniu decyzji inwestycyjnych.
Może Ci się również spodobać
Przychody Nvidia za II kwartał roku fiskalnego 2026 wyniosły 46,7 miliarda dolarów.
Popularne
WięcejCeny krypto
Więcej








