OpenAI i Anthropic wzajemnie testują modele pod kątem halucynacji i kwestii bezpieczeństwa
Jinse Finance poinformowało, że OpenAI i Anthropic niedawno przeprowadziły wzajemną ocenę modeli, aby wykryć potencjalne problemy, które mogły zostać pominięte podczas własnych testów. Obie firmy ogłosiły w środę na swoich blogach, że tego lata przeprowadziły testy bezpieczeństwa na publicznie dostępnych modelach AI drugiej strony, sprawdzając, czy modele wykazują tendencję do generowania halucynacji oraz tzw. problem „misalignment”, czyli sytuację, w której model nie działa zgodnie z oczekiwaniami deweloperów. Oceny te zostały przeprowadzone przed premierą GPT-5 przez OpenAI oraz wydaniem Opus 4.1 przez Anthropic na początku sierpnia. Anthropic została założona przez byłych pracowników OpenAI.
Zastrzeżenie: Treść tego artykułu odzwierciedla wyłącznie opinię autora i nie reprezentuje platformy w żadnym charakterze. Niniejszy artykuł nie ma służyć jako punkt odniesienia przy podejmowaniu decyzji inwestycyjnych.
Może Ci się również spodobać
Amerykańskie giełdy zamknęły się na plusie, trzy główne indeksy wzrosły, a akcje Xpeng spadły o prawie 8%.
Indeks Dow Jones zamknął się wzrostem o 185,13 punktów, a S&P 500 oraz Nasdaq również odnotowały wzrosty.
Indeks dolara spadł o 0,06%, zamykając się na poziomie 99,357.
