OpenAI та Anthropic провели взаємне тестування моделей на предмет галюцинацій та безпеки
Jinse Finance повідомляє, що OpenAI та Anthropic нещодавно провели взаємну оцінку моделей одна одної, щоб виявити проблеми, які могли бути пропущені під час власного тестування. Обидві компанії у середу заявили у своїх блогах, що цього літа вони провели тестування безпеки загальнодоступних AI-моделей одна одної, перевіряючи, чи схильні моделі до галюцинацій, а також наявність так званої "невідповідності" (misalignment), тобто коли модель не працює відповідно до очікувань розробників. Ці оцінки були завершені до запуску OpenAI моделі GPT-5 та випуску Anthropic Opus 4.1 на початку серпня. Anthropic була заснована колишніми співробітниками OpenAI.
Відмова від відповідальності: зміст цієї статті відображає виключно думку автора і не представляє платформу в будь-якій якості. Ця стаття не повинна бути орієнтиром під час прийняття інвестиційних рішень.
Вас також може зацікавити
У тренді
БільшеЦіни на криптовалюти
Більше








