НЕЙРОННЫЕ СЕТИ И ПОЧЕМУ ОНИ НЕ НЕЙРОННЫЕ СЕТИ
Мы провели эксперимент с ChatGPT. Такие продукты – это одно из ответвлений машинного обучения. То есть это всего лишь сложный алгоритм из разных математических формул. Давайте разберемся, как он работает на примере с котиками.Коротко представьтесь и расскажите о компании или сервисе в 3-4 строках. С какими клиентами вы работаете, что вас вдохновляет. Чем гордится ваша команда, какие у нее ценности и мотивация.
Принцип взят с работы человеческого нейрона, который принимает на вход сигнал, обрабатывает его и передает дальше. Давайте разбираться на примерах. Попробуем построить концепт нейросети, которая на основе голоса твоего питомца определяет, любит он тебя или нет. Как мы будем действовать?
Ваш кот хочет кушать
first
У нас есть запись голоса. К сожалению, просто отправить модели аудиозапись не получится. Нам придется как-то ее преобразовать в другие данные, желательно в числа, чтобы модели было удобнее с ними работать. Аудиозапись представляет собой набор разных частот, распределенных во времени. И в течение преобразования формата файла звуки превращаются в большую таблицу. В ней каждый столбец будет срезом нашей записи – спектрограммой, а строка – временем, в которое этот срез сделан. Если визуализировать такую таблицу, то получается что-то похожее на острые скалы, в низинах – отсутствие звука определенной частоты, а на пиках – наоборот, он очень громкий.
Данные из таблицы называются параметрами, и их мы отправляем в наш нейрон, в котором записана какая-то функция. Давайте вспомним координатную прямую из математики. Есть линейные функции: y=x+3. Это прямые линии под каким-то углом. Но мы также проходили параболы, гиперболы, синусоиды. Все это уже нелинейные функции, потому что они искривлены. Модель располагает наши данные на такой плоскости и думает: «Так, если этот параметр выше моей функции, то твой котик тебя любит, а если ниже, то нужно задуматься о том, чтобы подарить ему что-то вкусненькое». Так нейросеть обрабатывает сотни тысяч, а иногда и миллионы параметров. Еще одно важное свойство модели: после каждой нелинейной функции она добавляет веса – какие-то числа. Все это подбирается автоматически. И процесс подбора весов, работа с функциями называются обучением.
Как работает, например, сигмоида. Она разделяет данные на два класса. Так на рисунке, данные, которые функция разделила на два класса: розовый и фиолетовый. Фиолетовый — котик вас любит, розовый — вам стоит гладить его чаще.
ДАННЫЕ
ДУМАЕМ
ДЕЛАЕМ



ВЫВОДЫ
ЛЮБИТ ИЛИ НЕ ЛЮБИТ. Я ДАМ ТЕБЕ ОТВЕТ
Но и здесь не все так просто. Для того, чтобы модель качественно обучилась, ей нужно очень много данных. Также как и человеку, чтобы стать специалистом, нужно прочитать очень много книг, провести практические работы. Для успешной работы нейросети нужны сотни тысяч строк. А также уже человеку нужно создать правильную архитектуру сети. Например, вот здесь стоит использовать 20 нейронов с такой-то нелинейной функцией, а здесь можно и одним нейроном обойтись. Более того, существуют особые методы сокращения числа параметров, их видоизменения, чтобы нейронной сети было легче с ними работать. Это также ускоряет процесс.
Забавно, что нейронные сети схожи по принципу работы с нейроном, но не повторяют его. Наши нейроны используют накопительный принцип. То есть пока в клетку не придет определенное количество параметров, она не даст импульс. Однако для наших моделей этот принцип неудобен. Поэтому нейронную сеть правильнее называть просто вычислительным графом (схемой).
Made on
Tilda