LG H1000B — планшет на основе Windows 7 готовится к дебюту

LG H1000B - планшет на основе Windows 7 готовится к дебюту Больше примеров — в конце поста В последние годы большие языковые модели на архитектуре трансформеров стали вершиной развития нейросетей в задачах NLP. С каждым месяцем они становятся всё больше и сложнее. Чтобы обучить подобные модели, уже сейчас требуются миллионы долларов, лучшие специалисты и годы разработки. В результате доступ к современным технологиям остался лишь у крупнейших IT-компаний. При этом у исследователей и разработчиков со всего мира есть потребность в доступе к таким решениям. Без новых исследований развитие технологий неизбежно снизит темпы. Единственный способ избежать этого — делиться с сообществом своими наработками.

Год назад мы впервые рассказали Хабру о семействе языковых моделей YaLM и их применении в Алисе и Поиске. Сегодня мы выложили в свободный доступ нашу самую большую модель YaLM на 100 млрд параметров. Она обучалась 65 дней на 1,7 ТБ текстов из интернета, книг и множества других источников с помощью 800 видеокарт A100. Модель и дополнительные материалы опубликованы на Гитхабе под лицензией Apache 2.0, которая допускает применение как в исследовательских, так и в коммерческих проектах. Сейчас это самая большая в мире GPT-подобная нейросеть в свободном доступе как для английского, так и для русского языков.

В этой статье мы поделимся не только моделью, но и нашим опытом её обучения. Может показаться, что если у вас уже есть суперкомпьютер, то с обучением больших моделей никаких проблем не возникнет. К сожалению, это заблуждение. Под катом мы расскажем о том, как смогли обучить языковую модель такого размера. Вы узнаете, как удалось добиться стабильности обучения и при этом ускорить его в два раза. Кстати, многое из того, что будет описано ниже, может быть полезно при обучении нейросетей любого размера.

Как ускорить обучение модели?

В масштабах обучения больших нейронных сетей ускорение на 10% может сэкономить неделю работы дорогостоящего кластера. Здесь мы поговорим об итоговом ускорении более чем в два раза.

Обычно одна итерация обучения состоит из следующих шагов: LG H1000B - планшет на основе Windows 7 готовится к дебюту На этапе forward мы вычисляем активации и loss, на этапе backward — вычисляем градиенты, затем — обновляем веса модели. Давайте обсудим, как эти шаги можно ускорить.

Ищем узкие места

Чтобы понять, куда уходит время вашего обучения, стоит профилировать. В PyTorch это можно сделать при помощи модуля torch.autograd.profiler (статья). Вот пример трейса, который мы получили, используя профайлер: LG H1000B - планшет на основе Windows 7 готовится к дебюту Это трейс небольшой 12-слойной нейронной сети. Сверху вы можете увидеть шаги forward, снизу — backward. Какую проблему можно увидеть в этом трейсе? Одна из операций занимает слишком много времени, около 50% работы всего обучения. Оказалось, что мы забыли изменить размер эмбеддинга токенов, когда копировали конфигурацию обучения большой модели. Это привело к слишком большому матричному умножению в конце сети. Уменьшение размера эмбеддинга помогло сильно ускорить обучение. При помощи профайлера мы находили и более серьёзные проблемы, так что рекомендуем почаще им пользоваться.

Используем быстрые типы данных

В первую очередь на скорость вашего обучения и инференса влияет тип данных, в котором вы храните модель и производите вычисления. Мы используем четыре типа данных:

  1. single-precision или fp32 — обычный float, очень точный, но занимает четыре байта и вычисления на нём очень долгие. Именно этот тип будет у вашей модели в PyTorch по умолчанию.

  2. half-precision или fp16 — 16-битный тип данных, работает гораздо быстрее fp32 и занимает вдвое меньше памяти.
  3. bfloat16 — ещё один 16-битный тип. По сравнению с fp16 мантисса на 3 бита меньше, а экспонента на 3 бита больше. Как итог — число может принимать больший диапазон значений, но страдает от потери точности при числовых операциях.

  4. TensorFloat или tf32 — 19-битный тип данных, обладающий экспонентой от bf16 и мантиссой от fp16. Занимает те же четыре байта, что и fp32, но работает гораздо быстрее.

LG H1000B - планшет на основе Windows 7 готовится к дебюту На видеокартах a100 и новее 16-битные типы в пять раз быстрее fp32, а tf32 — в 2,5 раза. Если вы используете a100, то tf32 всегда будет применяться вместо fp32, если вы явно не укажете другое поведение. На более старых видеокартах bf16 и tf32 не поддерживаются, а fp16 всего вдвое быстрее fp32. Но это большой прирост в скорости. Имеет смысл всегда производить вычисления в half или bf16, хотя и у такого подхода есть свои недостатки. Мы их ещё обсудим.

Ускоряем операции на GPU

Что собой представляют операции на GPU, и как их ускорить, хорошо написано в этой статье. Мы здесь приведем пару основных идей оттуда.

Загружаем GPU полностью

Для начала давайте поймём, как выглядит вычисление одного CUDA-kernel на GPU. Можно привести удобную аналогию с заводиком: LG H1000B - планшет на основе Windows 7 готовится к дебюту У GPU есть память — склад, и вычислитель — заводик. При выполнении одного ядра вычислитель заказывает из памяти нужные данные, вычисляет результат и записывает его обратно в память. Что происходит, если заводик не загружен наполовину? LG H1000B - планшет на основе Windows 7 готовится к дебюту

Тогда, как и в случае с реальным заводом, половина мощностей GPU будет простаивать. Как это поправить в обучении? Самая простая идея: увеличить батч.

Для небольших моделей увеличение батча в n раз может приводить к кратному ускорению обучения, хотя время итерации замедлится. Для больших моделей с миллиардами параметров увеличение размера батча также даст прирост, хотя и небольшой.

Уменьшаем взаимодействие с памятью

Вторая идея из статьи заключается в следующем. Пусть у нас есть три ядра, которые последовательно обрабатывают одни и те же данные: LG H1000B - планшет на основе Windows 7 готовится к дебюту В этом случае всё время будет тратиться не только на вычисления, но и на работу с памятью: такие операции не бесплатны. Чтобы уменьшить количество таких операций, ядра можно объединить — «зафьюзить»: LG H1000B - планшет на основе Windows 7 готовится к дебюту Как это сделать? Есть несколько способов:

  1. Использовать torch.jit.script. Такой простой атрибут приведёт к компиляции кода функции в одно ядро. В коде ниже как раз происходит фьюзинг трёх операций: сложения тензоров, dropout и ещё одного сложения тензоров. def bias_dropout_add(x, bias, residual, prob, training):
    # type: (Tensor, Tensor, Tensor, float, bool) -> Tensor
    out = torch.nn. functional.dropout (x + bias, p=prob, training=training)
    out = residual + out
    return out

    def get_bias_dropout_add (training):
    def _bias_dropout_add(x, bias, residual, prob):
    return bias_dropout_add(x, bias, residual, prob, training)
    return _bias_dropout_add

    @torch.jit.script
    def bias_dropout_add_fused_train(x, bias, residual, prob):
    # type: (Tensor, Tensor, Tensor, float) -> Tensor
    return bias dropout add(x, bias, residual, prob, True) Такой подход обеспечил нам 5-процентный прирост скорости обучения.

  2. Можно писать CUDA-ядра. Это позволит не просто зафьюзить операции, но и оптимизировать использование памяти, избежать лишних операций. Но написание такого кода требует очень специфичных знаний, и разработка такого ядра может оказаться слишком дорогой.
  3. Можно использовать уже готовые CUDA-ядра. Коротко расскажу о ядрах в библиотеках Megatron-LM и DeepSpeed, с ними мы много работаем:
    • Attention softmax с треугольной маской даёт ускорение 20-100%. Ускорение особенно велико на маленьких сетях и в случае вычисления в fp32.
    • Attention softmax с произвольной маской даёт ускорение до 90%.
    • Fused LayerNorm — зафьюженный вариант LayerNorm в fp32. Мы такое ядро не использовали, но оно тоже должен дать прирост в скорости.
    • DeepSpeed Transformers — целиком зафьюженный блок трансформера. Даёт прирост в скорости, но его крайне сложно расширять и поддерживать, поэтому мы его не используем.

Использование зафьюженных тем или иным образом ядер позволило нам ускорить обучение больше чем в полтора раза.

Дропауты

Если у вас много данных и нет переобучения с dropout == 0, отключайте их! Наши вычисления это ускорило на 15%.

Случай с несколькими картами

Что меняется в случае с несколькими картами? Теперь схема выглядит так: LG H1000B - планшет на основе Windows 7 готовится к дебюту На этапе Reduce grads мы усредняем градиенты по видеокартам, чтобы объединить работу всех видеокарт, затем обновляем веса модели. Усреднение всех градиентов — не быстрый шаг. Каждая видеокарта должна отправить и получить минимум столько же градиентов, сколько параметров есть в сети. Давайте посмотрим, как существенно ускорить этот шаг и шаг step.

Коммуникации

Как вообще устроены оптимальные коммуникации? Библиотека NVIDIA NCCL, которую мы используем, просчитывает их во время инициализации и позволяет GPU общаться друг с другом по сети без посредников в виде CPU. Тем самым обеспечивается максимальную скорость коммуникаций.

Вот статья NVIDIA про эту библиотеку, а вот наша хабрастатья про борьбу с ложной загрузкой GPU, в том числе про NCCL. С точки зрения кода это выглядит примерно так: from torch.distributed import all_reduce, all_gather

tensor_to_sum = torch.

randn(100, 100, device='cuda')

all_reduce(tensor_to_sum) # Когда этот метод будет вызван на всех процессах, значение tensor_to_sum обновится на сумму входных тензоров

tensor_to_gather = torch.randn(100, 100, device='cuda')

gathered_tensors = [torch.

zeros(100, 100, device='cuda') for i in range(proc_count)]

all_gather(gathered_tensors, tensor_to_gather) # Тензоры из различных tensor_to_gather будут собраны в gathered_tensors NCCL-коммуникации очень быстрые, но даже с ними скорость шага all_reduce будет отнимать много времени. В ускорении нам помогает ZeRO.

ZeRO

ZeRO (Zero Redundancy Optimizer) — это оптимизатор с нулевой избыточностью. LG H1000B - планшет на основе Windows 7 готовится к дебюту Слева на картинке — обычное обучение на нескольких GPU. В стандартной схеме мы распределяем между процессами все параметры и состояния оптимизатора, а также градиенты после усреднения. Как следствие, довольно много памяти тратится зря. Справа изображён примерный принцип работы ZeRO. Мы назначаем каждый процесс ответственным за некоторую группу параметров. Процесс всегда хранит эти параметры, их состояния оптимизатора, и только он может их обновлять. За счёт этого достигается коллосальная экономия памяти, которую мы можем использовать под большие батчи. Но взамен добавляется новый шаг: all_gather весов — нам надо собрать все параметры сети на каждом процессе, чтобы сделать forward и backward. Теперь сложности операций после подсчёта градиентов будут такими:  all_reduce gradients: O(N), где N — количество параметров.  step: O(N/P), где P — количество процессов. Это уже хорошее ускорение.  all_gather parameters: O(N). Видно, что один шаг ускорился, но ценой добавления новых, тяжёлых операций. Как можно ускорить их? Оказалось, здесь нет ничего сложного: их можно делать асинхронно! Можем асинхронно собирать слои друг за другом во время выполнения forward:

  1. Собираем первый слой по всем процессам.
  2. Пока собираем второй слой — делаем forward по первому.
  3. Пока собираем третий слой — делаем forward по второму.

И так далее, до полного завершения forward. Почти таким же способом можно ускорить и backward. На наших запусках это дало прирост скорости 80%! Даже на маленьких моделях (размера 100M на 16 GPU) мы видели ускорение в 40-50%. Такой подход требует достаточно быстрой сети, но если она у вас есть, вы можете существенно ускорить обучение на нескольких GPU.

Ускорение. Итоги

Мы в своём обучении применили четыре подхода:

  • Зафьюзили часть операций: +5% скорости
  • Использовали softmax attention kernel с треугольной маской: +20-80%
  • Отключили dropout: +15%
  • Применили ZeRO: +80%

Получилось неплохо. Двигаемся дальше.

Борьба с расхождениями

Казалось бы, если есть достаточно вычислительных мощностей, можно просто запустить обучение, уйти на два месяца в отпуск, и в итоге вас будет ждать готовая модель. Но долгая итерация — не единственное, что может помешать обучению действительно больших моделей. При таких масштабах они довольно хрупкие и склонны к расхождениям. Что такое расхождения и как с ними бороться?

Расхождения

Допустим, вы поставили обучение. Смотрите на графики — видите, что loss падает, и так три дня подряд.

А утром четвёртого дня график loss'а оказывается таким: Loss поднялся выше, чем был через несколько часов после начала обучения. Более того: модель буквально забыла всё, что знала.

Её уже не восстановить, несколько дней обучения ушло впустую. Это и есть расхождение. В чём же причина?

Первые наблюдения

Мы заметили три вещи:

  • Оптимизатор LAMB куда менее склонен к расхождению, чем Adam.
  • Уменьшая значения learning rate, можно побороть проблему расхождения. Но не всё так просто:
    1. Подбор lr требует множества перезапусков обучений.
    2. Уменьшение lr часто приводит к замедлению обучения. Например, здесь уменьшение lr в два раза привело к замедлению на 30%:
  • Проблемы расхождения в fp16 проявлялись чаще, чем в fp32. В основном это было связано с переполнением значений fp16 в активациях и градиентах. Максимум fp16 по модулю — 65535. Итогом переполнения становился NaN в loss'е.

Градусники

Одно из решений, которые помогли нам поддерживать обучение достаточно долго, — это градусники. Мы замеряли максимумы/минимумы активаций на разных участках сети, замеряли глобальную норму градиентов.

Вот пример градусников обучения с расхождением: Хорошо видно: начиная примерно с 14 тысяч итераций максимумы matmul в attention резко стали расти. Этот рост — и есть причина расхождения.

Если откатить обучение до 13 тысяч итераций и пропустить злополучные батчи, на которых расхождение началось, либо уменьшить learning rate, то можно существенно снизить вероятность повторного расхождения. Проблемы такого подхода:

  1. Он не решает проблему расхождений на 100%.

  2. Мы теряем драгоценное время на откатывание обучения. Это, конечно лучше, чем проводить его впустую, но тем не менее.

Позднее мы внедрили несколько трюков, которые позволили снизить вероятность расхождения настолько, что мы спокойно и без проблем обучили множество моделей самых разных размеров, включая 100B.

Стабилизации. BFloat 16

BFloat 16 не переполняется даже при достаточно больших значениях градиентов и активаций. Поэтому оказалось хорошей идеей хранить веса и производить вычисления именно в нём.

Но этот тип недостаточно точный, поэтому при произвольных арифметических операциях могла накапливаться ошибка, приводящая к замедлению обучения или расхождениям другой природы.

Чтобы компенсировать расхождения, мы стали вычислять следующие слои и операции в tf32 (или fp32 на старых карточках):

  • Softmax в attention (вот и пригодились наши ядра), softmax по токенам перед лоссом.
  • Все слои LayerNorm.
  • Все операции с Residual — это позволило не накапливать ошибку и градиенты по глубине сети.
  • all_reduce градиентов, о котором было написано раньше.

Все эти стабилизации замедлили обучение всего на 2%.

Стабилизации. LayerNorm

Если в статьях про BERT и GPT использовался подход, который сейчас называется post-layernorm (слева на картинке), то с точки зрения стабильности и скорости сходимости больших моделей хорошо себя показал pre-layernorm (справа). В реальных моделях мы используем именно его. Неожиданный метод стабилизации открыли участники воркшопа BigScience: layernorm в самом начале сети, после эмбеддингов, также заметно снижает вероятность расхождения.

Стабилизации. Curriculum learning

Также мы внедрили к себе подход из статьи Curriculum learning. Мы хотим обучаться с большим батчем и большой длиной строк, но начинаем с маленького батча и коротких строк, а в ходе обучения постепенно их увеличиваем.

У этого подхода два плюса:

  1. Loss в самом начале падает достаточно быстро, вне зависимости от числа токенов, которые модель видит на каждой итерации. Поскольку мы уменьшаем количество вычислений в начале обучения, то быстрее проходим этот этап выхода лосса на плато.

  2. Авторы статьи пишут, что такой подход приводит к стабильному обучению.

Стабилизации. Итоги

Мы внедрили пять подходов:  bf16 как основной тип для весов.  Вычисления, требующие точности, делаем в tf32.  Pre-layernorm.  LayerNorm сразу после эмбеддингов.  Curriculum learning.

Как итог, мы уже больше полугода обучаем модели без расхождений. Они бывают разных размеров.

В том числе эти стабилизации помогли обучить модель со 100 млрд параметров, которой мы сейчас и делимся со всем сообществом. И напоследок:

Ещё немного примеров общения с YaLM 100B

LG H1000B — таинственный планшет с ОС Windows 7

LG H1000B - планшет на основе Windows 7 готовится к дебюту 89

Из-за западных санкций клиенты Сбера больше не могут оплачивать покупки бесконтактно с помощью смартфона картами «Мир». Но в рамках 25-го Петербургского международного экономического форума первый зампред правления Сбера Кирилл Царёв поделился с журналистами «РИА Новости» планами по возвращению такой возможности.

  LG H1000B - планшет на основе Windows 7 готовится к дебюту 24

LG представила флагманскую модель в линейке лазерных проекторов CineBeam 4K. Она позиционируется как альтернатива большим OLED- и LED-телевизорам премиум-класса. Устройство может располагаться под самой стенкой, проецируя изображение диагональю до 120 дюймов. 

  LG H1000B - планшет на основе Windows 7 готовится к дебюту

Команда инженеров из Массачусетского технологического института разработала универсальный чип с искусственным интеллектом, предназначенный для использования в самых разных устройствах. Но главная его фишка заключается в возможности апгрейда. 

  LG H1000B - планшет на основе Windows 7 готовится к дебюту

Уходя из России, Microsoft вряд ли станет блокировать ранее установленные и активированные копии Windows. Но для большинства из нас это лишь отсрочка неизбежного.

  LG H1000B - планшет на основе Windows 7 готовится к дебюту

В ходе анонса первого смартфона бренда Nothing глава компании раскрыл минимум информации об устройстве. Исправить ситуацию взялись вездесущие инсайдеры — в интернете появился неофициальный перечень основных аппаратных характеристик флагманского гаджета.

  LG H1000B - планшет на основе Windows 7 готовится к дебюту 49

Примерно год назад Qualcomm в сотрудничестве с ASUS выпустила Smartphone for Snapdragon Insiders — эталонный гаджет на базе процессора Snapdragon 888. В нём были собраны все передовые технологии производителя чипов, доступные на тот момент. Вот только сама Qualcomm, похоже, забыла о существовании этого устройства.

  LG H1000B - планшет на основе Windows 7 готовится к дебюту

Отраслевой аналитик Мин-Чи Куо, специализирующийся на технике Apple, опубликовал новый отчёт, посвящённый смартфонам американского бренда. По его словам, компания всё же откажется от своего фирменного коннектора для зарядки — но не в этом году.

  LG H1000B - планшет на основе Windows 7 готовится к дебюту 89

Hisense A9 стал одним из самых необычных смартфонов последнего времени. Он получил нетипичный дисплей, уникальный материал покрытия корпуса и продвинутую аудиосистему, призванную обеспечить высокое качество воспроизведения музыкальных файлов.

  LG H1000B - планшет на основе Windows 7 готовится к дебюту

Китайская компания Gunnir выпустила OEM-версию бюджетной десктопной видеокарты Intel Arc A380. Новинка, которая позиционируется как альтернатива Radeon RX 6500 XT, уже поступила в продажу по весьма доступной цене. Правда, купить её можно только на домашнем рынке.

  LG H1000B - планшет на основе Windows 7 готовится к дебюту

О ней сообщило издание «Известия» со ссылкой на отчёты операторов мобильных сетей. Вместо типичных способов «раскрутки» банковских карт мошенники переключились на личные кабинеты пользователей услуг сотовой связи.

  45

Разработчики популярного мессенджера Telegram чаще выпускают новые функции для мобильных устройств, но в ближайшем времени ожидается крупное обновление и для десктопного клиента. Так, в бета-версии приложения появилась возможность открывать чаты и каналы в отдельных окнах. 

  338

До недавнего времени оплата товаров на AliExpress с помощью QIWI позволяла сэкономить за счёт более выгодного курса доллара. Но теперь китайский маркетплейс «закрутил гайки» российским пользователям, полностью исключив возможность покупки с помощью этой платёжной системы — притом весьма нестандартным способом.

  253

Сотрудники МГТУ им. Баумана отчитались о переходе на отечественные дистрибутивы Linux вместо Microsoft Windows. Также институт получил собственное электронное хранилище данных (репозиторий) с российским ПО. В дальнейшем планируется подключить к нему и остальные учебные заведения.

Личный опыт: есть ли жизнь на нетбуке с Windows 10?

Мы имеем нетбук Asus Eee PC 1011 — очень слабое по сегодняшним меркам устройство, на котором изначально установлена Windows 7. И имеем комплект любителя приключений: две не совсем прямые ручки и полную адреналином горячую голову. 

LG H1000B - планшет на основе Windows 7 готовится к дебюту

Чтобы вы понимали, я установил Windows 10 на нетбук, у которого 1 ГБ оперативной памяти. И который умеет только в 1,6 ГГц на максимальных своих скоростях. Впрочем, вот скрин.

LG H1000B - планшет на основе Windows 7 готовится к дебюту

Почему у меня в первый раз не получилось? Потому что я не соблюдал ряд правил, которых должен придерживаться любой обладатель древнего ПК — ничего не синхронизировать, ничего лишнего не устанавливать, убрать из автозагрузок лишние программы и так далее. Сейчас расскажу подробнее.

В первый раз установка началась очень даже хорошо: я зашел на официальный сайт, скачал оттуда установочный файл, перезагрузил для чистоты эксперимента, потом запустил установку и ждал около трех с половиной часов.

Все это время я периодически проверял ход установки. Она, конечно же, зависала местами, но терпение мое было размером с гору. Под конец я вообще никуда не отходил и даже отвечал на «Привет! Осталось пару задач.

Подождите» Windows 10 своими: «Ага, привет. Хорошо. Я подожду».

Не пугайтесь, когда при первом запуске системы увидите огромные несоразмерные элементы рабочего стола — через некоторое время Windows 10 найдет нужный драйвер и сделает из вашего унылого рабочего стола, в котором нельзя было поменять даже фоновую картинку, конфетку. Все происходит очень долго, но ведь это нетбук, стоит подождать и ничего не делать еще полчаса. Windows 10 все настроит. И если вы делали все правильно, то установка даже не затронет ваши персональные настройки.

Не пугайтесь также некрасивого оформления. Все решается «персонализацией». Там вам надо выбрать тему. После этого у вас начинается совершенно новая жизнь. И все бы ничего, если бы вы не начали делать ошибки, которых (давайте вместе) нужно-избегать-обладателю-древнего-ПК.

Первой моей ошибкой было то, что я не нашел настройки, с помощью которых можно настроить наибольшее быстродействие. В Windows 7 все по другому, и на Windows 10 не сразу все найдешь, а на гугл-поиск тратить время не было желания. Поэтому я решил оставить все как есть и пользоваться как ни в чем не бывало.

А всего-то надо было сделать вот это: левая кнопка мыши по «Мой компьютер» → свойства → дополнительные параметры системы → дополнительно → быстродействие → параметры → выбрать наибольшее быстродействие → и поставить галочку только на вывод эскизов вместо значков, потому что иначе вы не будете видеть превью картинок, а они вам нужны для работы. И всё.

LG H1000B - планшет на основе Windows 7 готовится к дебюту

Второй моей ошибкой было войти в аккаунт и начать синхронизировать все подряд, в том числе One Drive. Этого категорически делать нельзя, также, как и нельзя заходить в Windows Store, то есть, в магазин Windows, и тем более — устанавливать оттуда программы.

Все это было мною нарушено: я вошел в аккаунт, запустил предустановленные программы, такие, как Музыка Groove, Почта, Карты, Word Online, да даже Sway — программу для создания красивых презентаций; вошел в Магазин, установил оттуда Твиттер, ВКонтакте, соответственно получал от всего этого уведомления; не следил за фоновыми задачами, запускал сразу две, а то и три программы, и проверял хваленое разделение экрана Windows 10.

И, наконец, самой моей большой ошибкой было то, что я удалил свой главный рабочий браузер — Хром, и решил всецело перейти на Edge.

Эксперимент закончился настолько плохо и позорно, что я даже не стал об этом писать (до этого на радостях я хотел написать статью о том, как перешел на браузер Edge и больше не хочу возвращаться в Хром, ага).

Кто ж знал тогда, что моя логика «если пользоваться только предустановленными официальными программами от Windows 10 проблем с производительностью не будет» провалится в бездну под названием «глупо»…

Все начало сильно тормозить, по ссылкам порой переходилось с третьего клика, не было привычных мне инструментов, а именно расширений, и даже такая достойная (нужно признать) фича, как «режим чтения» и рисовать прямо на страницах сайта — не приносила радости.

Дошло до того, что в середине работы, это когда я написал уже две страницы университетского текста и не догадался сохранить (работал через Office 2007), нетбук вдруг решил перезагрузиться. Все данные, конечно же, я потерял.

Я запускал заново, начинал работать и заново ловил «синий экран», который начиная с верхнего края плавно заливался синими полосками и выскакивал этот ненавистный текст с грустным смайлом: «Извините, кажется, что-то пошло не так. Нужно перезагрузить компьютер». Я решил откатиться обратно до семерки, отказавшись от всех благ Windows 10.

Благо, Windows 10 дает примерно две недели, чтобы обратно откатиться — в центре обновлений есть соответствующая строка.

Через месяц я все же решил повторить эксперимент, но теперь уже без тех ошибок, что я допустил в первый раз, и вуаля! Все получилось! Теперь Windows 10 работает на моем нетбуке почти (на 95%) также, как и Windows 7.

Почти, потому что сами понимаете — все-таки установленные дополнительно программы, которые идут в комплекте с Windows 10. Но все работает так, как надо.

По крайней мере, не было ни одного «синего экрана» перезагрузки после установки, а тем более в середине работы.

LG H1000B - планшет на основе Windows 7 готовится к дебюту

Итак, подведем итог. Вот эти правила нужно соблюдать, чтобы Windows 10 работала на вашем нетбуке так же хорошо, как и изначально установленная производителем ОС:

  1. Обновляться через официальный сайт Windows.

  2. Ничего не трогать при установке.

  3. Запретить отправку данных в фоновом режиме уже при установке — отказаться от всего, что можно: отправка информации по поводу ошибок, лишней синхронизации, отправка местоположения (и так далее). То есть, не соглашаться на установку стандартных настроек.

  4. Ни в коем случае не производить вход через свой Windows-аккаунт (обычно это Outlook-почта).

  5. Не запускать One Drive, не синхронизировать его.

  6. Отказаться от установки программ по умолчанию, которые хочет установить Windows 10 при первом запуске, кроме «Фотографии» и «Камера».

  7. Не пользоваться Windows-магазином.

  8. Настроить режим наибольшего быстродействия — отказаться от анимаций, теней и других благ внешнего вида, кроме «вывода эскизов вместо значков».

  9. Настроить список автозагрузок — их должно быть как можно меньше.

  10. Удалить все лишние образы программ в «Пуск», они через какое-то время начинают сами себя устанавливать.

  11. Не запускать браузер Edge с другими предустановленными программами.

Windows 10 может также хорошо пойти на ваше слабое устройство, как и Windows 7, если соблюдать эти правила. Со временем, когда вы научитесь «выпиливать» из ОС предустановленные программы, такие, как браузер Edge, Почта, One Note, будет еще лучше и быстрее. Все возможно, если делать с умом.

Может быть я что-то упустил или не посчитал нужным написать? Буду ждать от вас советов и замечаний в х.  

Overclockers.ru

Новое исследование, опубликованное в журнале Nature Medicine, представляет собой первый полноценный геномный анализ вируса, вызвавшего нынешнюю волну распространения оспы обезьян по всему миру.

Исследование позволило проследить историю вируса до вспышки обезьяньей оспы в Нигерии в 2017 году показав, что он быстро сформировал необычно большое количество мутаций, которые могут быть связаны с повышенной передачей инфекции от человека к человеку.

Так, уже в начале мая был подтвержден случай заболевания обезьяньей оспой у жителя Великобритании, который недавно вернулся из поездки в Нигерию. К концу месяца были выявлены десятки других случаев по всему миру, от Испании, Германии и Франции до Австралии, Мексики и США.

LG H1000B - планшет на основе Windows 7 готовится к дебютуВирус оспы обезьян приобрел более 50 уникальных мутаций, темпы распространения которых, по мнению ученых, являются весьма неожиданными. Depositphotos

Масштабность распространения была беспрецедентной. Несмотря на эндемичность в некоторых районах Центральной и Западной Африки, обезьянья оспа ранее никогда не распространялась по всему миру. Чтобы понять, откуда взялся вирус и чем он может отличаться от того, что происходило в прошлом, ученые оперативно приступили к изучению его генома.

Новое исследование, проведенное группой ученых из Португалии, изучило 15 различных образцов вируса полученных от инфицированных людей. Первая геномная связь, которую выявило исследование, была связана с кластером случаев заболевания обезьяньей оспой, выявленных в Израиле, Сингапуре и Великобритании в 2018 и 2019 годах.

Все эти случаи ранее были связаны с путешественниками, вернувшимися из Нигерии, причем геномная связь прослеживалась еще до вспышки оспы обезьян в Нигерии в 2017/2018 годах.

Возможно, самым неожиданным открытием в новом исследовании стало то, что нынешний штамм оспы обезьян, похоже, прошел необычайно быстрый период мутации.

Ведущий исследователь проекта Жуан Пауло Гомеш утверждает, что в обычных условиях следовало бы ожидать, что этот вирус будет накапливать лишь пару новых мутаций в год, однако циркулирующий в настоящее время штамм, содержит более 50 новых мутаций.

«Учитывая, что вирус оспы обезьян 2022 года, скорее всего, является потомком вируса, вызвавшего вспышку в Нигерии в 2017 году, можно было бы ожидать не более 5-10 дополнительных мутаций (по сравнению с завезенными вирусами 2018-2019 годов) вместо наблюдаемых 50 мутаций», — сказал Гомеш в комментарии благотворительной организации Gavi, занимающейся разработкой вакцин.

LG H1000B - планшет на основе Windows 7 готовится к дебютуДети с обезьяньей оспой, такие как эта четырехлетняя девочка, подвержены повышенному риску тяжелого заболевания. CDC 

Согласно доминирующей гипотезе, вирус циркулировал необнаруженным в эндемичной стране в течение нескольких лет между 2019 и 2022 годами. Нынешняя глобальная вспышка, скорее всего, возникла из одного источника, а затем была усилена одним или несколькими супер-распространителями в начале 2022 года, которые вызвали масштабную массовую вспышку, обнаруженную в апреле и мае.

В интервью MedPage Today Гомес сказал, что многие из обнаруженных в настоящее время мутаций связаны с белками иммунной системы человека. Это позволяет предположить, что вирус быстро адаптировался к передаче вируса от человека к человеку.

«[Множество] мутаций, которые мы наблюдаем во время передачи вируса от человека к человеку в 2022 году, затрагивают белки, связанные с иммунной системой нашего организма, поэтому это может означать процесс адаптации к Homo Sapiens», — сказал Гомес в интервью MedPage Today. «И да, похоже, что это происходит намного быстрее, чем ожидалось, что согласуется с также неожиданным наблюдением избытка мутаций у [штамма] 2022 по сравнению с его предком».

Хью Адлер из Ливерпульской школы тропической медицины считает, что результаты данного исследования подчеркивают, насколько мало мы знаем о генетике обезьяньей оспы, вируса, который циркулирует уже более 50 лет. Адлер также подчеркнул, что еще слишком рано судить о том, как именно новые мутации, приведенные в исследовании, влияют на передачу вируса или тяжесть заболевания.

«Авторы описывают неожиданно большое количество мутаций в вирусе, но их влияние на тяжесть заболевания или трансмиссивность неясно», — пояснил Адлер. «Мы не выявили никаких изменений в тяжести клинической картины заболевания у пациентов, диагностированных во время нынешней вспышки».

По состоянию на 24 июня 2022 года было зарегистрировано более 4100 случаев заболевания обезьяньей оспой примерно в 50 странах. Всемирная организация здравоохранения (ВОЗ) недавно созвала чрезвычайную консультативную группу для оценки глобальной ситуации.

И хотя группа признала «чрезвычайный характер события», она отказалась рекомендовать ВОЗ объявить эту вспышку ЧСЗМЗ (чрезвычайная ситуация в области общественного здравоохранения, имеющая международное значение).

ВОЗ объявляет ЧСЗМЗ, когда обнаруживается, что новое заболевание распространяется на международном уровне и требует скоординированных глобальных ответных мер для борьбы с ним.

В настоящее время существует два инфекционных заболевания, объявленных ЧСМЗМЗ: полиомиелит и COVID-19.

LG H1000B - планшет на основе Windows 7 готовится к дебютуНо даже если вы были привиты от натуральной оспы, защита не достаточно эффективна. Shutterstock

Нерешительность ВОЗ в объявлении эпидемии обезьяньей оспы чрезвычайной ситуацией в области общественного здравоохранения подверглась критике со стороны ряда экспертов по инфекционным заболеваниям.

В беседе с Science Insider эксперт по глобальной политике в области здравоохранения Александра Фелан поставила под сомнение цель политики ВОЗ по объявлению чрезвычайных ситуаций, «если она так медленно включается в работу, когда происходит явное распространение новых инфекционных заболеваний». 

«Речь идет о глобальном механизме оповещения общественного здравоохранения, и я беспокоюсь о том, как отразится на передаче информации сообществу ожидание в течение нескольких недель, прежде чем проблема в достаточной степени привлечет политическое внимание», — сказал Фелан в электронном письме в Science. «Я думаю, совершенно ясно, что пришло время пересмотреть цели и критерии ЧСЗМЗ, а также их соответствие задачам оповещения мирового сообщества и достаточную равноправность во взаимосвязанном мире».

Райна Макинтайр, эксперт по инфекционным заболеваниям, изучавшая в прошлом обезьянью оспу, сказала, что это новое распространение вируса «определенно необычно». Наряду с призывом к мировым органам здравоохранения сделать все возможное, чтобы остановить распространение этого вируса, она предполагает, что COVID-19 может играть определенную роль во внезапном возникновении этой вспышки.

В то время как ослабление иммунитета от прошлых прививок против оспы может быть фактором более широкого распространения вируса, Макинтайр задается вопросом, а не ослабила ли инфекция SARS-CoV-2 иммунные реакции у людей, сделав их более восприимчивыми к инфекциям, вызванным обезьяньей оспой.

«Когда люди восстанавливаются после COVID, их иммунная система ослаблена», — пишет Макинтайр в статье для The Conversation. Поэтому такие пациенты могут быть более восприимчивы к другим инфекциям. То же самое мы наблюдаем при заражении корью. Это ослабляет иммунную систему и повышает риск других инфекций в течение двух-трех лет после этого».

Результаты нового исследования были представлены в издании Nature Medicine.

Источники: Journal Nature Medicine, The Conversation, Science.org

(https://www.nature.com/articles/s41591-022-01907-y)(https://www.science.org/content/article/monkeypox-name-pandemic-decision—who)

(https://theconversation.com/monkeypox-is-not-a-global-emergency-for-now-says-who-3-things-we-need-to-know-next-about-how-its-mutating-and-spreading-185297)

Как установить Windows 7 на новые компьютеры с процессорами Kaby Lake и Coffee Lake

Егор Морозов — 24 октября 2017, 12:29

LG H1000B - планшет на основе Windows 7 готовится к дебюту Операционной системе Windows 7 уже больше 8 лет, однако она до сих пор остается самой популярной ОС Windows. Причины, по которой ее ставят, различны — кому-то нравится старый дизайн, у кого-то есть программы, которые не запускаются на более новых версиях ОС, ну а у кого-то просто старый ПК, который не тянет прелести Windows 10. Также хватает людей, которые хотят воспользоваться бесплатным обновлением до Windows 10 с получением «лицензии». В любом случае многие люди, покупающие современные ПК или ноутбуки, сталкиваются с тем, что «голый» дистрибутив Windows 7 с MSDN на них, увы, не встает. Давайте посмотрим, почему так может быть, и как это обойти. Первая причина — вышедшая в 2009 году Windows 7, разумеется, слыхом не слыхивала про USB 3.0 — его поддержка появилась только в SP 1. Поэтому тут два варианта — или ставить систему с диска, или ставить через порт USB 2.0. Если ни дисководов, ни старых портов нет — выход все же есть: нужно или интегрировать драйвера USB 3.0 в образ, или уже найти готовый образ, где это сделали за вас (об этом — ниже).

Вторая причина — вы ставите систему на SSD, подключенный по разъему M.2 и протоколу NVMe (что это за зверь — можно почитать здесь). Тут проблема схожая с USB 3.0 — из коробки система новый протокол не поддерживает, а значит SSD не увидит. Решения все те же — или интеграция драйверов самостоятельно, или поиск уже готового дистрибутива.

Третья причина — UEFI. Это ПО, которое заменило BIOS, и с установкой старых систем там традиционно проблемы. Зачастую помогает отключение Secure Boot или установка режима Legacy, но, увы, и это не всегда срабатывает. Если вам это не помогло, то и тут есть одна хитрость — можно поменять загрузчик системы, поставив его от Windows 10 — тогда UEFI его без проблем «скушает» и установка пойдет. 

Больше проблем с установкой Windows 7 на новые ПК нет. Как видите, я не указал тут процессоры — как вы уже поняли, на любой современный процессор Windows 7 ставится, а ограничение от Microsoft чисто софтовое, и установке не мешает.

Единственное, чему мешает это ограничение — это установке обновлений, поэтому желательно сразу брать образ с интегрированными обновлениями по 2017 год: в любом случае никаких больше крупных апдейтов 7ки не будет, поэтому то, что обновления не будут ставиться — абсолютно не проблема.

Итого — для того, чтобы быстро и безболезненно поставить на новый ПК или ноутбук Windows 7, нам нужен образ с кучей интегрированных драйверов и со всеми обновлениями. Разумеется, выложить ссылку на него я не могу (внутри есть активация), но по запросу в Яндексе «Windows 7 USB 3.0 + M.2 NVMe» такие образы легко находятся. Теперь важный момент — как их установить? Во-первых, такой образ записывается на флешку, как образ Windows 10 (т.к. загрузчик-то от 10ки) — в Windows 8 и выше достаточно просто скопировать все файлы из образа на флешку. Во-вторых, настройки UEFI у каждого свои: у кого-то все ставилось на дефолтных настройках, кому-то приходилось отключать Secure Boot, кому-то приходилось включать CSM (Compatibility Support Module) — в любом случае, все ставится именно через UEFI, без включения Legacy. Для тех, кто хочет активировать Windows 7, еще один совет — по умолчанию установщик Windows выбирает таблицу раздела GPT, с которой могут быть проблемы с активацией. Поэтому на моменте выбора диска для установки 7ки нужно сменить таблицу разделов на MBR. Также дабы не мучиться с Retail-версией Windows 7 Ultimate ставьте Professional — никакой особой разницы между ними нет. Больше никаких подводных камней нет — Windows 7 без проблем поставилась на два ноутбука с процессорами Kaby Lake и ПК с процессором Coffe Lake (извиняюсь на фото с экрана — система была поставлена для дальнейшего обновления до Windows 10 и последующей чистой установкой, так что это был самый быстрый способ скопировать информацию с экрана): LG H1000B - планшет на основе Windows 7 готовится к дебюту LG H1000B - планшет на основе Windows 7 готовится к дебюту

Для тех, кого интересует последующее обновление до Windows 10 с получением «лицензии» — почитать об этом можно тут.

Зверь от Haval: к дебюту готовится купеобразная версия

LG H1000B - планшет на основе Windows 7 готовится к дебюту

В Сеть выложили патентные изображения новой модификации кроссовера, объявленного «технологическим флагманом» Хавейла.

Выросший из концепта Haval XY паркетник Shenshou стартовал в родном Китае под конец прошлого года. Имя товарной модели, напомним, с китайского можно перевести как beast или monster – в общем, «зверь» по-нашему. Кросс считается самым продвинутым в линейке бренда.

Теперь же выяснилось, что SUV предложат еще и в версии «купе»: патентные картинки растиражировали местные СМИ, среди которых оказалось и издание Yiche.

К слову, это будет третье «купе» в актуальном модельном ряду Хавейла в Поднебесной, оно присоединится к H6S и F7x (последний кросс доступен и в России).

У новой модификации, согласно жанру, довольно сильно наклоненное заднее стекло, плюс появился небольшой хвостик багажника.

Передок на изображениях такой же, как у исходного Haval Shenshou: с ходовыми огнями в виде единой полоски (эта линия расположена под кромкой капота) и слившимися с радиаторной решеткой фарами.

Также сохранят выдвижные ручки дверей и зеркала на отдельных ножках. Внутри купеобразный кросс тоже, скорее всего, повторит стандартную модель, разве что могут заменить материалы отделки.

Купеобразный Haval Shenshou и стандартный кроссовер

1 / 2

Купеобразный Haval Shenshou и стандартный кроссовер

2 / 2

Габариты «купе» пока неизвестны. Длина стандартного Haval Shenshou составляет 4780 мм, ширина – 1890 мм, высота – 1675 мм, колесная база – 2800 мм. Кроссовер построен на свежей платформе Lemon, которая лежит в основе всех последних Хавейлов.

Стандартный Haval Shenshou

1 / 4

Стандартный Haval Shenshou

2 / 4

Стандартный Haval Shenshou

3 / 4

Стандартный Haval Shenshou

4 / 4

Техника, видимо, будет такая же, как у обычного SUV. В Китае Shenshou сегодня предложен с бензиновыми «турбочетверками» 1.5 и 2.0 мощностью 184 и 224 л.с.

соответственно, оба двигателя сочетаются с семиступенчатой роботизированной коробкой с двумя сцеплениями. Полный привод положен только самой дорогой комплектации с двухлитровым движком.

Позже на рынок выйдет гибридный Haval Shenshou с установкой Lemon DHT (может работать в параллельном или последовательном режиме).

Официальную премьеру новое кросс-купе может справить уже в этом году.

Как в Windows 10 активировать «режим бога»

Сначала подумал прикол какой то или шутка (как то раньше не встречался с таким, хотя это есть и в предыдущих версиях Виндовс), попробовал — все работает.

Вот что это такое …

Итак, чтобы активировать легендарный режим в Windows 10, пользователь, в первую очередь, должен проверить, имеются ли у его учетной записи права администратора. Затем необходимо сделать клик по рабочему столу правой кнопкой мыши и создать новую папку.

Как назвать папку? По шаблону GodMode.{ED7BA470-8E54-465E-825C-99712043E01C}, причем вместо GodMode вы можете указать и другое имя, однако точка, фигурные скобки и выражение в них меняться не должны.

Если имя введено правильно, иконка папки примет характерный вид, а внутри неё будут отображаться все доступные пользователю настройки, в том числе и те, которые в меню «Панели управления» или в «Параметры» не включены.

Можно также создавать на рабочем столе папки, которые обеспечат быстрый доступ к отдельным настройкам компьютера. Имена, определяющие их назначение, и ключи доступа:

  • Action Center.{BB64F8A7-BEE7-4E1A-AB8D-7D8273F7FDB6}
  • Backup and Restore.{B98A2BEA-7D42-4558-8BD1-832F41BAC6FD}
  • Biometric Devices.{0142e4d0-fb7a-11dc-ba4a-000ffe7ab428}
  • Credential Manager.{1206F5F1-0569-412C-8FEC-3204630DFB70}
  • Default Location.{00C6D95F-329C-409a-81D7-C46C66EA7F33}
  • Devices and Printers.{A8A91A66-3A7D-4424-8D24-04E180695C7A}
  • Display.{C555438B-3C23-4769-A71F-B6D3D9B6053A}
  • HomeGroup.{67CA7650-96E6-4FDD-BB43-A8E774F73A57}
  • Location and Other Sensors.{E9950154-C418-419e-A90A-20C5287AE24B}
  • Notification Area Icons.{05d7b0f4-2121-4eff-bf6b-ed3f69b894d9}
  • Recovery.{9FE63AFD-59CF-4419-9775-ABCC3849F861}
  • RemoteApp and Desktop Connections.{241D7C96-F8BF-4F85-B01F-E2B043341A4B}
  • Speech Recognition.{58E3C745-D971-4081-9034-86E34B30836A}
  • Troubleshooting.{C58C4893-3BE0-4B45-ABB5-A63E4B8C8651}
  • Administrative Tools.{D20EA4E1-3957-11d2-A40B-0C5020524153}
  • All .NET Frameworks and COM Libraries.{1D2680C9-0E2A-469d-B787-065558BC7D43}
  • All Tasks (Control Panel).{ED7BA470-8E54-465E-825C-99712043E01C}
  • AutoPlay.{9C60DE1E-E5FC-40f4-A487-460851A8D915}
  • BitLocker Drive Encryption.{D9EF8727-CAC2-4e60-809E-86F80A666C91}
  • Computer Folder.{20D04FE0-3AEA-1069-A2D8-08002B30309D}
  • Default Programs.{17cd9488-1228-4b2f-88ce-4298e93e0966}
  • Ease of Access Center.{D555645E-D4F8-4c29-A827-D93C859C4F2A}
  • Font Settings.{93412589-74D4-4E4E-AD0E-E0CB621440FD}
  • Get Programs.{15eae92e-f17a-4431-9f28-805e482dafd4}
  • Manage Wireless Networks.{1FA9085F-25A2-489B-85D4-86326EEDCD87}
  • Network and Sharing Center.{8E908FC9-BECC-40f6-915B-F4CA0E70D03D}
  • Network Connections.{7007ACC7-3202-11D1-AAD2-00805FC1270E}
  • Network Folder.{208D2C60-3AEA-1069-A2D7-08002B30309D}
  • Parental Controls.{96AE8D84-A250-4520-95A5-A47A7E3C548B}
  • Performance Information and Tools.{78F3955E-3B90-4184-BD14-5397C15F1EFC}
  • Personalization.{ED834ED6-4B5A-4bfe-8F11-A626DCB6A921}
  • Power Options.{025A5937-A6BE-4686-A844-36FE4BEC8B6D}
  • Programs and Features.{7b81be6a-ce2b-4676-a29e-eb907a5126c5}
  • Sync Center.{9C73F5E5-7AE7-4E32-A8E8-8D23B85255BF}
  • System.{BB06C0E4-D293-4f75-8A90-CB05B6477EEE}
  • User Accounts.{60632754-c523-4b62-b45c-4172da012619}
  • Windows Firewall.{4026492F-2F69-46B8-B9BF-5654FC07E423}
  • Windows SideShow.{E95A4861-D57A-4be1-AD0F-35267E261739}
  • Windows Update.{36eef7db-88ad-4e81-ad49-0e313f0c35f8}

Создание папок, которое называется активацией «режима бога», на работе компьютера не сказывается. Это лишь инструмент, который позволяет получить доступ к полному списку настроек ПК.

Кто знал о таком?

Ссылка на основную публикацию
Adblock
detector