Поделитесь Этой статьей
Mistral AI, стартап по разработке моделей с открытым исходным кодом, значительно отошел от традиционной тенденции выпуска моделей, предоставив торрент-ссылку для своей новой модели с большим языком программирования (LLM) MoE 8x7B.
Этот подход вызвал значительный ажиотаж в сообществе искусственного интеллекта, контрастируя с более отточенными и профессиональными релизами таких компаний, как Google. Модель, называемая “уменьшенным GPT-4”, была описана как небольшая, но мощная, адаптируемая ко многим вариантам использования и превосходящая Llama 2 13B по всем показателям.
Он также обладает естественными способностями к кодированию и длиной последовательности 8 кб. Модель выпущена по лицензии Apache 2.0, что упрощает ее развертывание на любом облачном или игровом графическом процессоре.
Выпуск модели по торрент-ссылке был расценен как смелый шаг, и некоторые комментаторы отметили, что это делает практически невозможным цензуру или удаление модели из Интернета. Однако были высказаны опасения по поводу отсутствия оценок безопасности или сообщений о безопасности от Mistral AI8.Модель Mistral 7B, предыдущий выпуск компании, также была доступна для скачивания по различным каналам, включая торрент объемом 13,4 гигабайта.
Эта модель получила высокую оценку за ее превосходную производительность при своих размерах и лицензирование по лицензии Apache 2.0, которая позволяет любому использовать модель при условии, что он предоставит соответствующую оценку.