В прошлой статье мы говорили о локальных векторах и матрицах. Сегодня рассмотрим распределенные матрицы Spark MLlib. В этой статье вы узнаете, как создаются строковая матрица...
Локальный вектор и матрица: базовые структуры данных Spark MLlib
В Spark MLlib есть разные типы векторов и матриц. MLlib поддерживает локальные векторы и матрицы, хранящиеся на одной машине, а также распределенные матрицы, поддерживаемые одним...
Первые шаги в Spark NLP: преобразование строковых данных
В прошлой статье мы говорили об установке Spark NLP на различные операционные системы, а теперь приступим уже к программированию. Сегодня затронем преобразование строковых данных в...
Установка Spark NLP в Windows, Linux и Google Colab
В прошлой статье мы говорили о преимуществах Spark NLP. Сегодня рассмотрим, как установить Spark NLP и PySpark в Windows, Linux (Ubuntu) и Google Colab. В...
Как происходит распределение данных в Spark
В прошлый раз мы говорили про механизм сериализации данных в распределенном фреймворке Apache Spark. Сегодня поговорим про управление распределением данных в Spark. Читайте далее про...
Компоненты Spark NLP
В предыдущей статье мы обсудили преимущества использования Spark NLP. Сегодня рассмотрим основные компоненты Spark NLP - аннотаторы (annotators), и как они связаны с Spark ML....
Зачем Data Scientist’у понадобится библиотека Spark NLP
В предыдущей статье мы немного рассказали о Spark NLP. В этой статье дадим обоснование использования данной библиотеки для решения любых задач NLP. Читайте далее, почему...
3 причины использовать библиотеку Spark NLP
Область NLP (Natural language processing) обладает широким спектром инструментов обработки текстовых данных. Одним из таких инструментов является Spark NLP. В этой статье мы расскажем вам...
10 вопросов на знание основ работы с логистической регрессией в Spark MLlib: открытый интерактивный тест для начинающих изучать машинное обучение
Чтобы самостоятельное обучение по Spark Mllib стало еще интереснее, сегодня мы предлагаем вам простой тест по основам работы с логистической регрессией в распределенном фреймворке Apache...
Ускоряем Apache Spark: тонкая настройка
В прошлой статье мы говорили о кэшировании данных в Apache Spark для более быстрой обработки больших данных (Big Data). Помимо кэширования, можно также оптимизировать производительность...