Иди обниму уже бегу парные обои: Change the wallpaper on your iPhone

Смените обои на вашем iPhone

Хотите сменить обои на вашем iPhone? Вы можете выбрать предложенные обои или одну из ваших собственных фотографий.

Добавьте новые обои на экран блокировки или главный экран

  1. В приложении «Настройки» нажмите «Обои».
  2. Нажмите «Добавить новые обои».
  3. Коснитесь «Фотографии», «Люди» или «Перемешать фото», чтобы выбрать собственное фото. Вы также можете выбрать обои из таких категорий, как «Погода и астрономия», «Эмодзи», «Коллекции» или «Цвет».
  4. При желании вы можете дополнительно настроить обои. Затем нажмите «Добавить».
  5. Нажмите «Установить как пару обоев», и ваш выбор будет отображаться как на главном экране, так и на экране блокировки. Нажмите «Настроить главный экран», чтобы создать отдельный фоновый рисунок главного экрана, который вы сможете редактировать.

              

Измените обои на экране блокировки

  1. Убедитесь, что вы предварительно настроили Face ID на своем iPhone. Чтобы сменить обои с экрана блокировки, Face ID должен четко видеть ваши глаза и области вокруг них.
  2. На экране блокировки коснитесь и удерживайте экран блокировки, чтобы открыть галерею обоев.
  3. Чтобы выбрать уже созданные обои, проведите пальцем влево и вправо. Чтобы добавить новые обои, нажмите кнопку «Добавить» .

В параметрах обоев экрана блокировки вы также можете нажать кнопку «Фокус», чтобы связать фокус с определенными обоями, настроить существующие обои или смахнуть обои вверх и коснуться, чтобы удалить их.

Если вы не можете использовать Face ID для изменения экрана блокировки, коснитесь экрана блокировки и удерживайте его, пока не появится кнопка «Настроить». Если кнопка «Настроить» не появляется, снова коснитесь экрана блокировки и удерживайте его, а затем введите пароль.

Настройка обоев экрана блокировки с помощью фильтров, виджетов и стилей

  1. В приложении «Настройки» нажмите «Обои».
  2. В предварительном просмотре экрана блокировки нажмите «Настроить».
  3. Нажмите на поля, чтобы добавить избранные виджеты и выбрать шрифт на время.
  4. Нажмите «Готово», чтобы сохранить настройки.
  • Чтобы выбрать шрифт и цвет текста, нажмите на время.
  • Чтобы добавить или удалить виджеты, такие как «Календарь», «Часы», «Погода», «Фитнес» или «Напоминания», коснитесь полей над или под временем.
  • Чтобы применить фотостили — например, «Черно-белый», «Двутонный» или «Цветная заливка», — проведите пальцем влево или вправо.
  • Чтобы обрезать и переместить фотографию, сведите пальцы и перетащите ее.
  • Чтобы выбрать параметры обоев, нажмите кнопку «Дополнительно». Перспективный зум перемещает обои при наклоне экрана. Эффект глубины позволяет накладывать объекты на фото.*

Настройка обоев экрана блокировки доступна в iOS 16 и более поздних версиях.

* Вы не можете использовать эффект глубины на обоях с виджетами.

 

Поворот нескольких фотографий в качестве обоев экрана блокировки

  1. В приложении «Настройки» нажмите «Обои».
  2. Нажмите «Добавить новые обои».
  3. Выберите «Перемешать фото» в верхнем ряду параметров.
  4. На экране «Перемешивание фотографий» установите частоту («По нажатию», «При блокировке», «Ежечасно» или «Ежедневно»). Затем выберите набор фотографий, которые будут перемешиваться по мере использования iPhone в течение дня.
  5. Нажмите «Готово».

Дата публикации:

Генерация текста с открытым исходным кодом и экосистема LLM в Hugging Face

Вернуться к блогу

Опубликовано
17 июля 2023 г.

Обновление на GitHub

мерве
Мерве Ноян

[Обновлено 24 июля 2023 г.: добавлена ​​лама 2.]

Технологии генерации текста и диалога существуют уже много веков. Ранее проблемы при работе с этими технологиями заключались в контроле как связности, так и разнообразия текста с помощью параметров логического вывода и дискриминационных искажений. Более согласованные результаты были менее творческими, ближе к исходным обучающим данным и звучали менее по-человечески. Недавние разработки позволили решить эти проблемы, а удобные пользовательские интерфейсы позволили каждому опробовать эти модели. Такие сервисы, как ChatGPT, недавно привлекли внимание к мощным моделям, таким как GPT-4, и привели к тому, что альтернативы с открытым исходным кодом, такие как Llama, стали массовыми. Мы думаем, что эти технологии будут существовать еще долгое время и будут все больше и больше интегрироваться в повседневные продукты.

Этот пост разделен на следующие разделы:

  1. Краткая информация о генерации текста
  2. Лицензирование
  3. Инструменты в экосистеме Hugging Face для обслуживания LLM
  4. Эффективная точная настройка параметров (PEFT)

Краткая информация о генерации текста

Модели генерации текста в основном обучаются с целью завершения неполного текста или создания текста с нуля в ответ на заданную инструкцию или вопрос. Модели, которые дополняют неполный текст, называются моделями каузального языка, а известными примерами являются GPT-3 от OpenAI и Llama от Meta AI.

Одна концепция, которую вам нужно знать, прежде чем мы двинемся дальше, — это тонкая настройка. Это процесс взятия очень большой модели и переноса знаний, содержащихся в этой базовой модели, в другой вариант использования, который мы называем нисходящей задачей . Эти задачи могут быть представлены в виде инструкций. По мере роста размера модели она может лучше обобщать инструкции, которые не существуют в данных перед обучением, но были изучены во время тонкой настройки.

Причинно-следственные языковые модели адаптируются с использованием процесса, называемого обучением с подкреплением на основе обратной связи с человеком (RLHF). Эта оптимизация в основном делается для того, насколько естественно и связно звучит текст, а не для достоверности ответа. Объяснение того, как работает RLHF, выходит за рамки этой записи в блоге, но вы можете найти дополнительную информацию об этом процессе здесь.

Например, GPT-3 — это каузальный язык базовой модели , в то время как модели в бэкенде ChatGPT (который представляет собой пользовательский интерфейс для моделей серии GPT) точно настраиваются через RLHF на подсказках, которые могут состоять из диалогов или инструкций. Важно различать эти модели.

В Hugging Face Hub вы можете найти как каузальные языковые модели, так и каузальные языковые модели, точно настроенные по инструкциям (ссылки на которые мы дадим позже в этом сообщении блога). Llama — одна из первых LLM с открытым исходным кодом, которая превзошла/сопоставила LLM с закрытым исходным кодом. Исследовательская группа во главе с «Вместе» создала репродукцию набора данных Ламы под названием «Красная пижама», обучила LLM и настроила на ней модели. Вы можете прочитать больше об этом здесь и найти контрольные точки модели на Hugging Face Hub. К моменту написания этого поста в блоге три крупнейших модели каузального языка с лицензиями с открытым исходным кодом — это MPT-30B от MosaicML, XGen от Salesforce и Falcon от TII UAE, полностью открытые на Hugging Face Hub.
Недавно Meta выпустила Llama 2, модель открытого доступа с лицензией, разрешающей коммерческое использование. На данный момент Llama 2 превосходит все другие модели больших языков с открытым исходным кодом в различных тестах. Контрольные точки Llama 2 на Hugging Face Hub совместимы с трансформерами, а самая большая контрольная точка доступна для всех желающих на HuggingChat. Вы можете узнать больше о тонкой настройке, развертывании и запросе с помощью Llama 2 в этом сообщении блога.

Второй тип модели генерации текста обычно называют моделью генерации текста в текст. Эти модели обучаются на текстовых парах, которые могут быть вопросами и ответами или инструкциями и ответами. Наиболее популярными из них являются T5 и BART (которые на данный момент не являются современными). Компания Google недавно выпустила серию моделей FLAN-T5. FLAN — это новейший метод, разработанный для точной настройки инструкций, а FLAN-T5, по сути, представляет собой тонкую настройку T5 с использованием FLAN. На данный момент модели серии FLAN-T5 являются современными моделями с открытым исходным кодом и доступны на Hugging Face Hub. Обратите внимание, что они отличаются от моделей каузального языка, настроенных на инструкции, хотя формат ввода-вывода может показаться похожим. Ниже вы можете увидеть иллюстрацию того, как работают эти модели.

Наличие большего количества вариантов моделей генерации текста с открытым исходным кодом позволяет компаниям сохранять конфиденциальность своих данных, быстрее адаптировать модели к своим предметным областям и сокращать затраты на вывод вместо того, чтобы полагаться на закрытые платные API. Все модели каузального языка с открытым исходным кодом на Hugging Face Hub можно найти здесь, а модели генерации текста в текст — здесь.

Модели, созданные с любовью Hugging Face with BigScience и BigCode 💗

Hugging Face является одним из руководителей двух научных инициатив, BigScience и BigCode. В результате были созданы две большие языковые модели, BLOOM 🌸 и StarCoder 🌟.
BLOOM — это каузальная языковая модель, обученная 46 языкам и 13 языкам программирования. Это первая модель с открытым исходным кодом, имеющая больше параметров, чем GPT-3. Вы можете найти все доступные контрольные точки в документации BLOOM.

StarCoder — это языковая модель, обученная на разрешительном коде из GitHub (с более чем 80 языками программирования 🤯) с целью «Заполнить посередине». Он не настроен точно по инструкциям и, таким образом, служит скорее помощником по кодированию для завершения заданного кода, например, перевода Python на C++, объяснения концепций (что такое рекурсия) или работы в качестве терминала. Вы можете попробовать все контрольные точки StarCoder в этом приложении. Он также поставляется с расширением VSCode.

Фрагменты для использования всех моделей, упомянутых в этом сообщении в блоге, приведены либо в репозитории моделей, либо на странице документации этого типа модели в Hugging Face.

Лицензирование

Многие модели генерации текста либо имеют закрытый исходный код, либо лицензия ограничивает коммерческое использование. К счастью, начинают появляться альтернативы с открытым исходным кодом, которые принимаются сообществом в качестве строительных блоков для дальнейшей разработки, тонкой настройки или интеграции с другими проектами. Ниже вы можете найти список некоторых крупных каузальных языковых моделей с полностью открытым исходным кодом:

  • Falcon 40B
  • XGen
  • МПТ-30Б
  • Пифия-12Б
  • Красная пижама-INCITE-7B
  • OpenAssistant (вариант Falcon)

Существует две модели генерации кода: StarCoder от BigCode и Codegen от Salesforce. Существуют модели контрольных точек разных размеров и лицензии с открытым исходным кодом или открытые RAIL для обоих, за исключением Codegen, настроенного по инструкции.

На Hugging Face Hub также размещены различные модели, специально настроенные для обучения или использования в чате. Они бывают разных стилей и размеров в зависимости от ваших потребностей.

  • MPT-30B-Chat от Mosaic ML использует лицензию CC-BY-NC-SA, которая не разрешает коммерческое использование. Однако MPT-30B-Instruct использует CC-BY-SA 3.0, которую можно использовать в коммерческих целях.
  • Falcon-40B-Instruct и Falcon-7B-Instruct используют лицензию Apache 2.0, поэтому коммерческое использование также разрешено.
  • Другое популярное семейство моделей — OpenAssistant, некоторые из которых построены на модели Meta Llama с использованием пользовательского набора данных для настройки инструкций. Поскольку исходная модель Llama может использоваться только для исследований, контрольные точки OpenAssistant, созданные на основе Llama, не имеют полных лицензий с открытым исходным кодом. Однако существуют модели OpenAssistant, основанные на моделях с открытым исходным кодом, таких как Falcon или pythia, которые используют разрешающие лицензии.
  • StarChat Beta — это доработанная версия StarCoder с инструкциями и лицензия BigCode Open RAIL-M v1, которая разрешает коммерческое использование. Настраиваемая по инструкциям модель кодирования Salesforce, модель XGen, допускает использование только в исследовательских целях.

Если вы хотите точно настроить модель на основе существующего набора данных инструкций, вам необходимо знать, как был скомпилирован набор данных. Некоторые из существующих наборов данных инструкций либо получены из краудсорсинга, либо используют результаты существующих моделей (например, модели, лежащие в основе ChatGPT). Набор данных ALPACA, созданный Стэнфордом, создается на основе результатов моделей, лежащих в основе ChatGPT. Кроме того, существуют различные краудсорсинговые наборы данных инструкций с открытым исходным кодом, такие как oasst1 (созданный тысячами людей добровольно!) или databricks/databricks-dolly-15k. Если вы хотите создать набор данных самостоятельно, вы можете проверить карточку набора данных Долли о том, как создать набор данных инструкций. Модели, настроенные на основе этих наборов данных, можно распространять.

Вы можете найти полную таблицу некоторых моделей с открытым исходным кодом/открытым доступом ниже.

Модель Набор данных Лицензия Использовать
Сокол 40B Сокол RefinedWeb Апач-2. 0 Генерация текста
SalesForce XGen 7B Комбинация C4, RedPajama и др. Апач-2.0 Генерация текста
МПТ-30Б Комбинация C4, RedPajama и др. Апач-2.0 Генерация текста
Пифия-12Б Свая Апач-2.0 Генерация текста
Красная пижама INCITE 7B Красная пижама Апач-2.0 Генерация текста
OpenAssistant Falcon 40B oasst1 и Долли Апач-2.0 Поколение текста
СтарКодер Стек BigCode OpenRAIL-M Генерация кода
Salesforce CodeGen Данные Старкодера Апач-2.0 Генерация кода
ФЛАН-T5-XXL gsm8k, ламбада и esnli Апач-2.0 Генерация преобразования текста в текст
МПТ-30Б Чат ShareGPT-Vicuna, OpenAssistant Guanaco и др. CC-By-NC-SA-4.0 Чат
МПТ-30Б Инструкция дуорк, конкуренция_математика, куколка_hhrlhf CC-By-SA-3.0 Инструкция
Falcon 40B Инструкция байка Апач-2.0 Инструкция
Долли v2 Долли Массачусетский технологический институт Генерация текста
СтарЧат-β OpenAssistant Гуанако BigCode OpenRAIL-M Код Инструкция
Лама 2 Нераскрытый набор данных Пользовательская мета-лицензия (разрешает коммерческое использование) Генерация текста

Инструменты в экосистеме Hugging Face для обслуживания LLM

Вывод генерации текста

Время отклика и задержка для одновременно работающих пользователей являются серьезной проблемой для обслуживания этих крупных моделей. Чтобы решить эту проблему, Hugging Face выпустила text-generation-inference (TGI) — решение с открытым исходным кодом, обслуживающее большие языковые модели, построенные на Rust, Python и gRPc. TGI интегрирован в решения для вывода Hugging Face, Inference Endpoints и Inference API, поэтому вы можете напрямую создать конечную точку с оптимизированным выводом несколькими щелчками мыши или просто отправить запрос в API вывода Hugging Face, чтобы воспользоваться его преимуществами, вместо интеграции TGI с вашей платформой.

TGI в настоящее время поддерживает HuggingChat, пользовательский интерфейс чата Hugging Face с открытым исходным кодом для LLM. В настоящее время эта служба использует одну из моделей OpenAssistant в качестве базовой модели. Вы можете общаться сколько угодно с помощью HuggingChat и включить функцию веб-поиска для ответов, которые используют элементы с текущих веб-страниц. Вы также можете оставить отзыв о каждом ответе для авторов моделей, чтобы лучше обучать модели. Пользовательский интерфейс HuggingChat также имеет открытый исходный код, и мы работаем над дополнительными функциями HuggingChat, чтобы включить больше функций, таких как создание изображений внутри чата.

Недавно был выпущен шаблон Docker для HuggingChat для Hugging Face Spaces. Это позволяет любому развернуть свой экземпляр на основе большой языковой модели всего несколькими щелчками мыши и настроить его. Здесь вы можете создать экземпляр большой языковой модели на основе различных LLM, включая Llama 2.

Как найти лучшую модель?

Hugging Face ведет таблицу лидеров LLM. Эта таблица лидеров создается путем оценки моделей, представленных сообществом, по эталонным тестам генерации текста в кластерах Hugging Face. Если вы не можете найти нужный язык или домен, вы можете отфильтровать их здесь.

Вы также можете ознакомиться с таблицей лидеров LLM Performance, целью которой является оценка задержки и пропускной способности больших языковых моделей, доступных на Hugging Face Hub.

Эффективная точная настройка параметров (PEFT)

Если вы хотите точно настроить одну из существующих больших моделей в своем наборе данных инструкций, это практически невозможно сделать на потребительском оборудовании, а затем развернуть их (поскольку модели инструкций имеют тот же размер, что и исходные контрольные точки, которые используются для тонкой настройки). PEFT — это библиотека, позволяющая выполнять методы тонкой настройки с эффективным использованием параметров. Это означает, что вместо обучения всей модели вы можете обучить очень небольшое количество дополнительных параметров, что обеспечивает более быстрое обучение с очень небольшим снижением производительности. С помощью PEFT вы можете выполнять адаптацию низкого ранга (LoRA), префиксную настройку, быструю настройку и p-настройку.

Дополнительные сведения о генерации текста см. в дополнительных ресурсах.

Дополнительные ресурсы

  • Вместе с AWS мы выпустили контейнеры глубокого обучения для развертывания LLM на основе TGI, которые называются LLM Inference Containers.

Related Posts

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *