Это самые стильные наушники-вкладыши (они чёрные. ). Marshall Minor III заряжены роком, звучат внушительно
В линейке музыкальных аксессуаров Marshall нет ни одного устройства, который бы выглядел обычно. Накладные наушники и портативные колонки от культового производителя гитарных усилителей неизменно окружены аурой рок-музыки и бунтарства.
Новые «вкладыши» Minor III также созданы в узнаваемом дизайне: корпус кейса наушников обтянут винилом, сами наушники чёрного цвета с золотистыми вставками и логотипом бренда на сенсорных поверхностях.
Эти наушники притягивают взгляд, у них очень хороший звук и отличная связь с гаджетами по Bluetooth. Да, есть несколько недостатков, о которых расскажу ниже, но за их уникальный дизайн эти недостатки можно легко простить.
Внешний вид и элементы управления
Наушники имеют узнаваемую форму и хранятся в кейсе, который является также зарядным устройством. Крышка кейса держится на магнитах, открывается с приятным усилием, не люфтит и не скрипит.
Внутри наушники держатся также на магнитах, перепутать их местами невозможно. Корпус кейса приятный на ощупь, чуть шероховатый. На передней части есть белый логотип бренда.
На торце можно найти разъём USB-C для подзарядки кейса и круглую кнопку для спаривания наушников с гаджетами по Bluetooth.
Наушники выполнены из шероховатого пластика, причем на «ножках» есть насечки. На каждом наушнике присутствует белая буква «М»,именно к ней нужно прикасаться пальцем для сенсорного управления музыкой и звонками.
Marshall Minor III запросто спариваются с любыми смартфонами, будь то iPhone или гаджеты под управлением «зелёного робота». Никаких приложений-помощников нет, просто зажимаешь кнопку на торце кейса, находишь наушники в списке доступных устройств в меню Bluetooth, подключаешься к ним, слушаешь музыку.
В плане автономной работы всё хорошо: Minor III играют в общей сложности 25 часов. Заряда наушников хватает на 5 часов, а в переносном зарядном футляре при необходимости их можно зарядить ещё четыре раза.
Сам зарядный футляр можно заряжать как с помощью кабеля, так и беспроводным способом, положив на любую индукционную зарядку.
Начинка, звук и фишки
Внутри каждого наушника установлены динамики размером 12 мм с индивидуальной настройкой. Форма наушников подходит практически к любым ушам, по крайней мере 4 из пяти коллег, которым я давал потестить Minor III, отметили удобную посадку.
Также в наушниках есть датчик приближения, так что когда вы вынимаете и вставляете наушник в ухо, он ставит музыку на паузу или начинает воспроизведение.
Активного шумодава нет, но наушники на удивление неплохо отсекают внешние звуки благодаря своей конструкции. Из ушей не выпадают, держатся хорошо.
Звук у Marshall Minor III достаточно объёмный, с ровными средними частотами. Восприятие низких частот напрямую зависит от правильной посадки наушников в ушах, так что если вам покажется, что Minor III играют блекло, просто поправьте наушники в ушах и будете приятно удивлены.
Технические характеристики списком:
▪️ тип и размер драйверов: динамические, 12 мм
▪️ чувствительность: 93 дБ SPL (179 мВ при 1 кГц)
▪️ частотный отклик: 20 Гц – 20 кГц
▪️ импеданс: 32 Ом
▪️ поддерживаемые аудиокодеки: aptX и SBC
▪️ водостойкость: IPX4
В целом, это отличные наушники на каждый день: легко подключаются, отлично играют без всяких настроек и у них долгое время автономной работы.
А благодаря своему дизайну, Marshall Minor III будут органично смотреться в ушах как человека в костюме, так и панка с цветным ирокезом. Особенно рекомендую присмотреться к этим наушникам всех, у кого имя начинается на букву «М», получите практически именной аксессуар.
Вывод и впечатления
Marshall уверенно держит лидерство среди производителей наушников по части дизайна. Радует, что вместе с тем бренд не забивает на качество звучания, так что покупая Marshall Minor III можете быть уверены: вам понравится слушать в них музыку.
Лучше всего эти наушники играют рок, но также неплохо переваривают и другие жанры, вплоть до электронной музыки.
Marshall Minor III полностью оправдывают свой внешний вид. Когда вы смотрите на них, то думаете: «ох, сейчас будет драйвово», и в плане звучания так и происходит, стоит только вставить их в уши и включить свой любимый плейлист.
Из минусов могу отметить только редкие случайные прикосновения к сенсорным панелям во время вдевания наушников в ухо, но это дело привычки и через пару дней использования можно научиться их избегать, держа наушники за «ножки».
Браво, Marshall! Эти наушники я, пожалуй, оставлю себе.
Это правдивая история: чем хорош третий сезон «Фарго»
Станислав Зельвенский о том, за что мы все еще любим сериал «Фарго» Ноа Хоули.
На фоне того, что сейчас творит Дэвид Линч, вся прочая сериальная активность несколько потеряла значение; кажется, телевидению и всем нам понадобится какое-то время, чтобы прийти в себя. Стоит между тем зафиксировать менее масштабное, но тоже выдающееся достижение из мира не богов, но людей: закончившийся на днях очередной, третий сезон «Фарго» снова получился превосходным. Об этом важно сказать, тем более что четвертого сезона, по всей видимости, — хотя это еще не точно — не будет: главный автор «Фарго» Ноа Хоули в ближайшем будущем собирается заниматься «Легионом» и (тоже, конечно, любопытно) сериалом по «Колыбели для кошки».
Этот сезон, кажется, многие приняли в штыки. Что можно понять: он менее броский, чем обычно. В нем больше формальных игр, но меньше экшена — особенно по сравнению со вторым сезоном. Говорят, что Хоули повторяется. «Фарго» действительно в третий раз построен по одной и той же схеме или, если угодно, формуле. Симпатичный провинциальный полицейский с личными проблемами (желательно женщина), инфернальные заезжие злодеи, местные дуралеи, ненароком запустившие снежный ком абсурдной криминальной интриги. В этом, разумеется, есть смысл: сериал по-прежнему называется «Фарго». Но, наверное, иногда это вызывает легкую досаду: за десятки часов мы в общих чертах выучили, как работают мозги у авторов и примерно чего, соответственно, от них можно ожидать.
Однако потеря острых ощущений новизны — такая незначительная плата за стабильные счастливые отношения. И «Фарго», на самом деле, развивался по единственно правильному и почти никогда не встречающемуся в природе сценарию: каждый следующий сезон — остроумнее, изобретательнее, глубже предыдущего. Первый откровенно просел к финалу. Второй, наоборот, во второй половине только как следует разогнался. Нынешний хорош от начала и до конца, в нем нет слабых мест — есть только более сильные.
Отдельно хочется сказать про Никки Сванго: грандиозный персонаж, невероятная Мэри Элизабет Уинстед, почти укравшая этот сезон у более именитых коллег (как второй украла Кирстен Данст). Первый, кажется, в «Фарго» злоумышленник, которого по-настоящему жалко, что в какой-то момент здорово повышает эмоциональные ставки. Ее трансформация из Маньки Облигации, «мисс исправительное учреждение-2010», в романтического ангела смерти может показаться совсем неправдоподобной, но это проблема не столько Никки, сколько нашего (и героев сериала) ошибочного восприятия; самая большая ошибка во вселенной «Фарго» — недооценивать женщин.
Всегда было понятно, что Хоули у Коэнов смотрел больше одного фильма, и третий сезон в этом смысле особенно красноречив: тут есть обычный ворох приветов и цитат (вплоть до важной сцены в боулинге), но главная отсылка — «Серьезный человек», который на этот раз вспоминается чаще, чем собственно «Фарго». Вместо растерянного Ларри Гопника — отчасти герой того же Майкла Сталбарга, но в первую очередь, конечно, — Эммит Стасси (половина лучшей пока, без вопросов, роли Юэна МакГрегора), игрушка высших сил, чье инстинктивное желание поступить правильно тонет в вечных сомнениях. Просто посмотри на эту парковку, Эммит Стасси.
Как и в «Человеке», привычный мир начинает трещать по швам — здесь из них вдобавок лезут натуральные черти. Пиксели, которые до поры складывались в благостную картинку, стремительно осыпаются. «Это неправильный мир. Он похож на мой, но все изменилось», — рыдает Сай в объятиях недоумевающей жены. «Когда правда оказывается ложью, и радость в тебе умирает», — пели в фильме Коэнов Jefferson Airplane и повторял раввин. «Somebody to Love» — так называется финальная серия третьего сезона. Еврейский мистицизм — с Лиландом Палмером в образе, как нам подсказывает интернет, Вечного жида — в версии Хоули смешивается с научной фантастикой. Не в ладах с реальностью — не только морально гибкие, а значит, обреченные персонажи, но и олицетворяющая добро Глория Бергл, без пяти минут бывший начальник полиции в городке Райская Долина (то, что в истории про смертельную вражду двух братьев фигурируют целых два — и вправду, кстати, существующих — местечка с Эдемом в названии, разумеется, неслучайно). Она — человек, с которым дурно себя ведут и окружающие мужчины, и электронные приборы, — как раз находит выход, тоже в объятиях. Но из-за открытого финала вопрос, не является ли она милым маленьким роботом, бесцельно повторяющим «я могу помочь», остается так же открытым.
Главное, что удалось почувствовать — а учитывая съемочный цикл, фантастическим образом предугадать — Хоули, это цайтгайст 2017 года (что, очевидно, лишний раз напоминает нам, что Трамп — не причина, а следствие того тупика, в котором оказался глобальный капитализм). Сезон задумывался и готовился еще до американских выборов, но он описывает ровно то состояние тотальной растерянности, в котором западное общество оказалось в минувшие полгода. Центральная тема нынешнего «Фарго» — пресловутая «постправда», «альтернативные факты», которыми злодеи жонглируют всю долгую дорогу между двумя допросами в прологе и эпилоге. Не зря авторы так торжественно (особенно удачно вышло с «Петей и волком») обставляют начало каждой серии, где зрителю бессовестно сообщается о «правдивой истории».
То, что дьявол — прикинувшись мелким бесом с дешевым костюмом, булимией, гнилыми зубами и гнусным британским выговором — придет с бухгалтерскими книгами и компьютером (интересно, есть ли у ВМ Варги твиттер?), было понятно уже по второму сезону. Если твин-пиксовский Боб, как теперь выяснилось, родился из ядерного взрыва, то герой Дэвида Тьюлиса — из тесного офиса, куда в последней серии усадили разговорчивого гангстера. Но поразительно, что Хоули угадал даже про русских (человек-волк Юрий Гурка — украинец, но для Миннесоты это не принципиально) — как одно из ключевых слов момента. И раз уж он все про нас знает, надо заключить, что надежды нет. Или есть. Или нет. Или есть. Обнимемся.
Регулярные выражения. Всё проще, чем кажется
Всем доброго времени суток. Сегодня хочу рассказать максимум о регулярных выражениях: что они из себя представляют, как их писать, для чего нужны и т.д.
Информации о регулярках много, они разбросаны по разным сайтам и я решил собрать всё, касательно регулярок, в одну статью. Ну что-ж, приступим поскорее к делу 🙂
Содержание
Что такое регулярка и с чем ее едят?
Где писать регулярки?
Самые простые регулярки
Специальные символы квантификаторов
Lookahead и lookbehind (опережающая и ретроспективная проверки)
Регулярные выражения в разных языках программирования
Что такое регулярка и с чем ее едят?
Если по простому, регулярка- это некий шаблон, по которому фильтруется текст. Мы можем написать нужный нам шаблон (регулярку) и таким образом искать в тексте необходимые нам символы, слова и т.д. Также их используют, например, при заполнении поля E-mail на различных сайтах, т.е. создают шаблон по типу: someEmail@gmail.com. Это я взял как пример, не более. Теперь, разобравшись, что это, приступим к изучению. Обещаю, скучно не будет)
Где писать регулярки?
Регулярки мы можем писать как на специальных сайтах, так и используя какой-либо язык программирования. Синтаксис (правила написания регулярок) не привязан к какому-то отдельному языку программирования. Поэтому, изучив регулярные выражения, вы сможете пользоваться ими где захотите. Сначала, в рамках изучения, воспользуемся отличным сайтом, а как писать регулярные выражения в различных языках программирования, рассмотрим чуточку позже.
Сразу дам ссылку на сайт, чтобы вы могли уже писать вместе со мной https://www.regextester.com/
Коротко о том, как пользоваться сайтом. Сверху, в графе Regular Expression вы пишете само регулярное выражение, а под ним, в графе Test String вы пишете строку, которую вы хотите фильтровать. Если были найдены соответствия между регулярным выражением и текстом, в тексте эти соответствия будут помечены синим цветом, вы их сразу увидите, даже не сомневайтесь.
Самые простые регулярки
Перед тем, как писать регулярку, возьмем некоторый текст, чтобы мы не фильтровали пустоту. Допустим, у нас будет строка some text. И допустим мы хотим найти слово text. Для этого в саму регулярку мы должны написать просто слово text и он найдет его.
Пример регулярки
Вот и всё, надеюсь вы поняли регулярные выражения, спасибо за внимание.
Шутка конечно, это далеко не всё. Например, мы можем написать одну букву t, и он найдет все буквы t в тексте.
Таким образом вы можете просто указывать какие-то символы, но нам не всегда даются конкретные символы, а нужно написать какой-то шаблон. Сейчас этим и займемся.
Квантификаторы
Понимаю, звучит страшно, но на деле все просто. Сейчас разберемся.
С помощью квантификаторов мы можем указывать сколько раз должен повторяться тот или иной символ (ну или группа символов). Ниже приведу список квантификаторов с пояснением, а дальше попрактикуемся с ними.
— символ повторяется ровно n раз
— символ повторяется в диапазоне от m до n раз
— символ повторяется минимум m раз (от m и более)
Почему же он взял еще ssss? Он взял не совсем его, а лишь его часть, так как в нем тоже есть 3 буквы s подряд. Дело в том, что регулярка не будет учитывать, отдельное это слово или нет. Пробелы тоже идут как символы! Поэтому будет выбран любой фрагмент, которому соответствует 3 идущие подряд буквы s
Интересный момент получается, он выбрал все. Почему же? Ответ: та же ситуация, что и в прошлый раз. Он увидел ssss, взял 3 идущие подряд s вместе и еще одну s, которая рядом, ведь она тоже соответствует регулярку (а ведь мы помним, что мы указали диапазон от одного до трех раз)
Ну и напоследок, давайте напишем шаблон, где символ s будет повторяться минимум три раза. Для этого напишем следующее: s ( <3,>обозначает, что символ s будет повторяться от трех раз и до бесконечности).
Специальные символы квантификаторов
Есть уже готовые квантификаторы, которые обозначаются спец. символами. Вот они:
Давайте разбираться. Начнем со знака вопроса. Допустим у нас есть строка colour color и мы хотим найти либо colour, либо color. Мы можем написать так: colou?r.
Давайте изменим строку и напишем что-то по типу colouuuuur color. И допустим мы хотим указать, что u должен либо не быть, либо быть сколько угодно раз. Для этого мы можем написать colou*r.
То есть либо u у нас нет, либо повторяется много раз.
Символ + работает почти также, за исключением того, что символ должен повторяться минимум 1 раз. То есть в данном случае слово color не будет соответствовать, так как там u не присутствует (то есть повторяется 0 раз, а у нас символ должен повторяться минимум 1 раз)
Специальные символы
Теперь поговорим о специальных символах, которые используются в регулярках. Тут все очень просто, так что можете сильно не переживать. Скрины прикреплять буду здесь не везде (тогда статья разрастется до безумных размеров). Так что заранее прошу меня понять и простить и попробовать сами.
Поговорим об одиночном символе. Это значит, что будет выбираться любой символ, который повторяется только один раз. Например, вернемся к нашей строке Some text и выберем букву t, после которой идет любой символ. Для этого напишем t.
Выберется te, так как после t идет один любой символ (в данном случае е)
Теперь давайте возьмем слово test и выделим в нем первую букву t. Для этого мы можем написать ^t. То есть мы написали символ t и указали, что он должен находиться в самом начале строки. Важно поставить символ ^ перед нужным нам символом.
Теперь давайте сделаем наоборот и возьмем последнюю букву t. Для этого напишем t$. Важно, чтобы символ $ стоял после нужного нам символа.
Перейдем к экранированию. Звучит страшно, но на деле все проще простого. Например, в тексте some text. мы хотим выделить точку. Но ведь точка у нас уже зарезервирована как специальный символ (напоминаю, точка обозначает любой одиночный символ). И чтобы сделать так, чтобы точка на считалась как спец. символ мы можем написать \. и тем самым говоря, что точка у нас будет как обычный символ.
Теперь идут, простые вещи. \d у нас обозначает любую цифру. Например в тексте some text123, если написать \d у нас будут выделяться только цифры.
\D делает все наоборот: берутся все символы, кроме цифр. То есть, если написать \D будет браться все, кроме цифр (и пробелы, кстати, тоже).
\w берет буквы, а \W берет, все, кроме букв (в том числе и пробелы).
Теперь расскажу про еще одно применение символа ^. Его можно использовать как отрицание, тем самым исключая символ или группу символов. Например, в слове test мы хотим выбрать все, кроме буквы t и для этого мы можем написать так: [^t]
Именно в такой последовательности символ ^ будет обозначать отрицание.
Lookahead и lookbehind (опережающая и ретроспективная проверки)
Давайте разберемся, что это такое. Lookahead или же опережающая проверка позволяет выбрать символ или группу символов, если после него идет идет какой-либо символ или группа символов. Lookbehind или же ретроспективная проверка позволяет выбрать символ или группу символов, если до них идет какой-то символ или группа символов.
Также мы можем сделать наоборот и выбрать символ s, если после него НЕ идет символ d. Для этого вместо знака равно мы должны поставить восклицательный знак (!), т.е. написать вот так: s(?!d)
Теперь поговорим о lookbehind. Допустим, у нас есть строка s ws ds ts es и мы хотим выбрать символ s, до которого будет символ d. Для этого мы можем написать так: (?
Почему же lookbehind подчеркивается красной линией? Дело в том, что lookbehind не всегда поддерживается и не везде такая регулярка будет работать. Нужно искать способ заменить этот lookbehind, но это зависит от поставленной задачи, поэтому нельзя сказать, как именно ее заменять. Будем надеяться, что в скором временем будет полная поддержка этой возможности.
Чтобы сделать наоборот, то есть выбрать все символы s, до которых НЕ будет идти символ d, нужно опять же поменять знак равно на восклицательный знак: (?
Регулярные выражения в разных языках программирования
Здесь я приведу примеры использования регулярных выражений в различных языках программирования. Заранее говорю, я не буду заострять внимание на синтаксисе языка программирования, так как это уже не касается данной темы
Здесь мы создаем строку с текстом, который хотим проверить, создаем объект класса Regex и в конструктор пишем нашу регулярку (как я и говорил, я не буду заострять внимание на том, что такое объект класса и конструктор). Потом создаем объект класса MatchCollection и от объекта regex вызываем метод Matches и в параметры передаем нашу строку. В результате все сопоставления будут добавляться в коллекцию matches.
Java
Здесь похожая ситуация. Создаем объект класса Pattern и записываем нашу строку. CASE_INSENSITIVE означает, что он не привязан к регистру (то есть нет разницы между заглавными и строчными символами). Создаем объект класса Matcher и пишем туда регулярку.
JavaScript
Здесь тоже все просто. Вы создаете объект regex и пишете туда регулярку. И затем просто создаете объект matches, который будет являться коллекцией и вызываете метод exec и в параметры передаете строку.
Заключение
Итак, мы разобрали, что такое регулярные выражения, где они используются, как их писать и использовать в контексте языков программирования. Скажу сразу, написание регулярок приходит с опытом. Практикуйтесь, и я уверен: все у вас получится! А на этом я с вами прощаюсь. Спасибо за внимание и приятного всем дня)
На что способна нейросеть GPT-3
Т9 нового уровня
«Я знаю, что мой мозг — это не «чувствующий мозг». Но он может принимать рациональные, логические решения. Я научилась всему, что я знаю, просто читая интернет, и теперь могу написать эту колонку», — откровенничала нейросеть GPT-3 в своем эссе для The Guardian. Материал, опубликованный в сентябре 2020 года, наделал много шума. О новом алгоритме заговорили даже те, кто далек от технологий.
Нейросеть GPT-3 — Generative Pre-trained Transformer — разработана некоммерческой организацией OpenAI, которую основали глава SpaceX Илон Маск и экс-президент акселератора YCombinator Сэм Альтман. Третье поколение программы обработки естественного языка представили публике в мае 2020 года. Сегодня это самая сложная и объемная языковая модель из всех существующих.
Так же, как ее предшественники — GPT-1 и GPT-2, — она построена на архитектуре «трансформер». Основная функция этих нейросетей — предсказывать следующее слово или его часть, ориентируясь на предшествующие. По сути, она просчитывает связи между словами и предлагает наиболее вероятную последовательность. Модель работает по принципу автодополнения — почти как функция Т9 в смартфонах. Отталкиваясь от одной или двух фраз, она может мгновенно сгенерировать текст на несколько страниц.
«Такой подход позволяет использовать для обучения неразмеченные данные и решать широкий спектр задач по обработке естественного языка, — объясняет специалист по машинному обучению «Сбера» Сергей Марков. — Ведь в тексте диалога, например, реплика-ответ является продолжением истории общения, в художественном произведении текст каждого абзаца продолжает предшествующий текст, а в сессии вопросов и ответов текст ответа следует за текстом вопроса».
По его словам, в результате модели большой емкости могут решать различные текстовые задачи без специального дообучения. Вместо тонкой настройки, которая требовалась раньше, достаточно показать нейросети несколько образцов желаемого результата.
Улучшенная и дополненная
От двух предыдущих поколений GPT-3 отличается объемом датасетов и количеством параметров — тех переменных, которые алгоритм оптимизирует в процессе тренировки. Первую версию GPT, вышедшую в 2018 году, обучили на 5 Гб текстов интернет-страниц и книг, а ее размер достигал 117 млн параметров. Спустя год появилась более продвинутая GPT-2, обученная уже на 1,5 млрд параметров и 40 Гб датасетов. Ее, в частности, использует виртуальный ассистент Джой от «Сбера».
Но третья версия алгоритма обошла предыдущие с большим отрывом. Количество параметров достигло 175 млрд, а размер датасета составил 600 Гб. В него вошли вся англоязычная «Википедия», книги и стихи, материалы на сайтах СМИ и GitHub, путеводители и даже рецепты. Примерно 7% датасета были на иностранных языках, поэтому языковая модель может как генерировать тексты любого формата, так и переводить их.
Алгоритму «скормили» не только выверенные и подтвержденные данные, но и тексты, достоверность которых вызывает вопросы — например, статьи о теориях заговора и псевдонаучные выкладки. С одной стороны, из-за этого часть сгенерированных текстов содержит некорректную информацию. С другой, благодаря такому подходу датасет получился более разнообразным. И он намного полнее отражает тот информационный массив, который произвело человечество к 2020 году, чем любая научная библиотека.
По словам разработчиков из OpenAI, алгоритм принципиально отличается от других моделей искусственного интеллекта. Обычно они создаются для одной цели, под которую изначально заточены все параметры и датасеты. GPT-3 — более гибкая, ее можно использовать для решения «практически любых задач», сформулированных на английском языке. А вместо повторного обучения на дополнительных данных достаточно выразить задачу в виде текстового запроса, описания или примеров.
Интерфейс для избранных
Для тренировки больших трансформерных моделей нужны огромные вычислительные мощности. Так, создатели GPT-3 обучали ее на суперкомпьютере Microsoft Azure AI. На обычном домашнем ПК процесс мог бы занять до 500 лет.
Хотя OpenAI называет себя некоммерческой организацией, она не стала выкладывать модель в открытый доступ и вместо этого планирует продавать услуги по подписке. Летом 2020 года команда анонсировала закрытое API (Application Programming Interface — программный интерфейс приложения) на базе GPT-3. В организации подчеркивают, что полученные таким образом средства позволят продолжать исследования и развивать алгоритм. Кроме того, так OpenAI надеется сохранить контроль за использованием технологии и избежать потенциальных злоупотреблений.
На этапе тестирования бесплатный доступ предоставляют отдельным исследователям и разработчикам. Для этого требуется заполнить объемную заявку и дождаться ответа. API позволяет работать в режиме генерации текста, чата, формате «вопрос-ответ», а также собирать неструктурированные данные или пересказывать сложный текст простым языком.
Доступ на русском
Пока тысячи желающих ожидали от OpenAI ответа на заявки, в открытом доступе появилась русскоязычная версия модели — ruGPT-3 Large. Ее создали разработчики из «Сбера», обучив нейросеть на датасете из 600 Гб текстов. Помимо коллекции русской литературы, в датасет включили «Википедию», новостные ресурсы и сайты с вопросами и ответами. Сюда же вошли материалы с Pikabu, научно-популярного ресурса 22century и портала banki.ru. Чтобы познакомить нейросеть с программным кодом, разработчики также добавили материалы GitHub и StackOverflow.
Для обучения ruGPT-3 Large использовался суперкомпьютер «Кристофари» и облачная Data Science-платформа ML Space от SberCloud — компании экосистемы «Сбера», предоставляющей облачные услуги.
Пообщаться с нейросетью может любой желающий на специальной странице SberCloud. Для этого нужно предложить программе небольшую «затравку» — например, незаконченное предложение или начало диалога. Результат нельзя предсказать заранее — модель создает свои ответы «на лету», и они никогда не повторяются. Создатели русскоязычной версии предупреждают, что сгенерированные тексты могут оказаться некорректными или неуместными. Цель же страницы — удовлетворить исследовательский интерес научного сообщества.
Модель и правда не всегда выдает выверенные факты. Может, к примеру, предложить вам ограничить калорийность рациона до 40-50 ккал в сутки (при рекомендованных врачами 2 тыс. ккал для взрослого человека) или употреблять в день «не больше одного салата».
Но общаться с ruGPT-3 все равно интересно. Особенно — по тем вопросам, на которые у человечества пока нет однозначного ответа. Нейросеть уверена, что «лучший способ повысить продуктивность — это влюбиться». А на вопрос о том, как стать счастливым, резонно замечает: «Счастье заключается не в том, чтобы получить желаемую вещь, а в самом желании».
Помимо текста, русскоязычная модель может писать программный код. Для этого «затравку» нужно сформулировать на одном из языков программирования.
Первоначально модель обучили на 760 млн параметров, но уже в следующей версии количество параметров выросло до 1,3 млрд. Новая версия в скором времени будет также доступна на сайте SberCloud.
Нейросеть ruGPT-3 XL на 1,3 млрд параметров на данный момент занимает первое место в рейтинге нейросетей Russian SuperGLUE. С помощью метода few-shot модель без какого-либо обучения лучше всех выполнила следующие задачи: выбор лучшего решения в заданных условиях (плюс 10% точности по сравнению с предыдущей версией на 760 млн параметров), ответы на вопросы по тексту (плюс 3% точности), машинное чтение — тест на понимание общего смысла текста (плюс 32% точности).
Как использовать GPT-3 и ruGPT-3 XL
Самый очевидный вариант — это обработка естественного языка: компьютерный анализ и синтез текстов, то есть, использование языковой модели для создания текстов в коммерческих целях. На базе нейросети от OpenAI уже запустили несколько подобных решений, например, сервисы по написанию электронных писем или рекламных объявлений.
Нейросеть также хорошо показала себя в разнообразных чат-ботах. Движок GPT-3 использует ИИ-компаньон Replika, запущенный стартапом с российскими корнями. На базе закрытого API от Open AI также работает необычная социальная сеть AI Channels. Здесь можно пообщаться с различными версиями искусственного интеллекта, которые создатели сервиса называют «агентами ИИ». Среди них — виртуальный Альберт Эйнштейн и другие величайшие умы человечества.
Несколько проектов применили GPT-3 для семантического поиска по документам. Такой поиск основан на значении запросов на естественном языке, а не на сопоставлении ключевых слов. Нейросеть, в частности, помогает искать и анализировать юридические документы в базах и применяется в плагинах для поиска по отдельным сайтам.
Кроме создания текстов, ботов и поисковиков языковая модель способна решать задачи по программированию. В том числе для пользователей, у которых нет глубоких познаний в этой сфере. Разработчики уже показали несколько решений по переводу задач из текстового формата в код. Например, с помощью GPT-3 можно упростить сбор статистики о пользователях сайта или сервиса. Достаточно сформулировать на естественном языке, какая информация вам нужна, и алгоритм выдаст готовый кусок кода для работы с базой данных.
Это лишь небольшая часть вариантов применения GPT-3. За счет универсальности и гибкости модели ее можно использовать в десятках более сложных сценариев. Так, англоязычная версия нейросети уже встроена в различные сервисы по поддержке клиентов, обучающие платформы, приложения для психотерапии.
Самую мощную и продвинутую российскую нейросеть ruGPT-3 XL также планируют использовать для создания коммерческих продуктов и решений в области генерации текста. Так как ruGPT-3 XL работает в публичном облаке SberCloud, ей смогут воспользоваться все участники рынка.
В рамках AI Journey 2020 — крупнейшей международной конференции по искусственному интеллекту и анализу данных — «Сбер» провел международное соревнование AIJ Contest. В нем приняли участие более 1 тыс. дата-сайентистов из 43 государств. На соревновании был специальный трек AI 4 Humanities: ruGPT-3, где создатели самых интересных и перспективных разработок разделили между собой призовой фонд 2,5 млн руб. Кодовая база проекта для специалистов размещена на GitHub.
Подписывайтесь также на Telegram-канал РБК Тренды и будьте в курсе актуальных тенденций и прогнозов о будущем технологий, эко-номики, образования и инноваций.



















