Недавно компания Microsoft представила свою новейшую малую языковую модель (SLM) Phi-2, которая поражает своей эффективностью, учитывая ее эффективный дизайн. Имея всего 2,7 миллиарда параметров, Phi-2, тем не менее, может конкурировать с моделями, которые в 25 раз больше ее, и часто превосходит их в задачах понимания, рассуждения и познания.
Это опровержение предположений о масштабе модели является результатом выдающегося обучения Phi-2. Вместо размера набора данных Microsoft отдавала предпочтение качеству и структуре - использовались только самые образовательные данные. По мнению экспертов, такой избирательный, тщательно продуманный подход повысил точность и скорость обучения Phi-2. Модель демонстрирует особые успехи в понимании языка, логическом мышлении и обработке разнообразной информации.
Безопасность также была приоритетом для создателей Phi-2. Тщательное тестирование по различным демографическим группам выявило минимальное количество типичных для ИИ предубеждений или токсичных поколений. Этого удалось достичь без дополнительных вмешательств, таких как человеческие петли обратной связи или алгоритмы оптимизации.
Microsoft позиционирует впечатляющий баланс производительности и этики в Phi-2 как веху в развитии ответственного ИИ. Они представляют себе новую парадигму, в которой эффективность будет определять развитие, а не только масштаб. Phi-2 - это плацдарм для реализации передовых и безопасных систем искусственного интеллекта даже на мобильных платформах.
Бросая вызов предположениям и добиваясь большего с меньшими затратами, новейшие SLM Microsoft указывают путь к более умным технологиям, которым пользователи могут доверять. Упор на качество, а не на количество может сделать Phi-2 образцом для будущего ИИ.