ISBN :
Возрастное ограничение : 12
Дата обновления : 17.07.2024
# Разделение данных уже происходит внутри ImageDataGenerator с использованием параметра validation_split
# Создание модели
model = Sequential([
Conv2D(32, (3, 3), activation='relu', input_shape=(150, 150, 3)),
MaxPooling2D(2, 2),
Conv2D(64, (3, 3), activation='relu'),
MaxPooling2D(2, 2),
Conv2D(128, (3, 3), activation='relu'),
MaxPooling2D(2, 2),
Conv2D(128, (3, 3), activation='relu'),
MaxPooling2D(2, 2),
Flatten(),
Dense(512, activation='relu'),
Dropout(0.5),
Dense(1, activation='sigmoid')
])
# Компиляция модели
model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])
# Обучение модели
history = model.fit(
train_generator,
steps_per_epoch=train_generator.samples // train_generator.batch_size,
validation_data=validation_generator,
validation_steps=validation_generator.samples // validation_generator.batch_size,
epochs=10
)
# Оценка модели
loss, accuracy = model.evaluate(validation_generator)
print(f'Test Accuracy: {accuracy*100:.2f}%')
# Корректировка и оптимизация
# В данном примере можно попробовать изменить архитектуру модели, количество эпох,
# использование других оптимизаторов или функций активации для улучшения производительности.
# График точности обучения и валидации
plt.plot(history.history['accuracy'], label='Training Accuracy')
plt.plot(history.history['val_accuracy'], label='Validation Accuracy')
plt.title('Training and Validation Accuracy')
plt.legend()
plt.show()
# График потерь обучения и валидации
plt.plot(history.history['loss'], label='Training Loss')
plt.plot(history.history['val_loss'], label='Validation Loss')
plt.title('Training and Validation Loss')
plt.legend()
plt.show()
```
Описание шагов
– Сбор данных: Использовали `ImageDataGenerator` для загрузки изображений кошек и собак, и автоматического разделения на обучающий и валидационный наборы.
– Разделение данных: Произошло в процессе генерации данных с использованием параметра `validation_split`.
– Обучение модели: Создали и обучили простую сверточную нейронную сеть (CNN) для классификации изображений.
– Оценка модели: Оценили точность модели на валидационном наборе данных.
– Корректировка и оптимизация: Визуализировали графики точности и потерь для определения возможностей улучшения модели.
Этот пример демонстрирует базовый процесс супервайзингового обучения для задачи классификации изображений, используя библиотеку Keras для построения и обучения нейронной сети.
Обучение без учителя
Обучение без учителя (unsupervised learning) – это тип машинного обучения, при котором модель обучается на неразмеченных данных. В отличие от супервайзингового обучения, здесь нет правильных ответов, и модель должна самостоятельно выявлять скрытые структуры и закономерности в данных.
Основные методы обучения без учителя:
Обучение без учителя – это подход, при котором модель обучается на неразмеченных данных. Этот метод позволяет выявлять скрытые структуры и закономерности в данных без необходимости в предварительной разметке. Основные методы обучения без учителя включают кластеризацию, снижение размерности и ассоциативные правила.
1. Кластеризация
Кластеризация – это метод группировки данных в кластеры таким образом, чтобы данные внутри одного кластера были более схожи друг с другом, чем с данными из других кластеров. Этот метод широко используется для сегментации клиентов, анализа текстов, выявления аномалий и многих других задач.
K-means
K-means – один из наиболее популярных и простых в реализации алгоритмов кластеризации. Основная идея заключается в разделении данных на ( K ) кластеров, минимизируя внутрикластерное расстояние, то есть расстояние между точками внутри каждого кластера и их соответствующим центроидом. Процесс начинается с выбора ( K ) начальных центроидов, которые могут быть выбраны случайным образом или на основе других методов. Затем алгоритм итеративно выполняет следующие шаги:
1. Назначение точек кластерам: Каждая точка данных присваивается тому кластеру, центроид которого находится ближе всего.
2. Обновление центроидов: После распределения всех точек данные центроиды пересчитываются как среднее всех точек, принадлежащих каждому кластеру.
3. Конвергенция: Шаги назначения и обновления повторяются до тех пор, пока изменения в позициях центроидов не станут незначительными, что означает, что центроиды стабилизировались и алгоритм достиг сходимости.
Преимущества K-means включают его простоту и эффективность при работе с большими наборами данных. Однако алгоритм чувствителен к выбору начальных центроидов и может застревать в локальных минимумах. Кроме того, он предполагает, что кластеры имеют сферическую форму и равные размеры, что не всегда соответствует реальности данных.
Иерархическая кластеризация
Иерархическая кластеризация – метод, который создает иерархию вложенных кластеров, представляемую в виде дендрограммы. Существует два основных подхода к иерархической кластеризации: агломеративный и дивизионный.
1. Агломеративная кластеризация (снизу вверх): Каждый объект начинается как отдельный кластер, и на каждом шаге алгоритм объединяет два ближайших кластера до тех пор, пока все объекты не будут объединены в один кластер.
2. Дивизионная кластеризация (сверху вниз): Все объекты начинают как один кластер, который на каждом шаге делится на два наиболее удаленных кластера, продолжая деление до тех пор, пока каждый объект не окажется в своем собственном кластере.
Иерархическая кластеризация не требует предварительного задания числа кластеров, что является ее значительным преимуществом. Пользователь может выбирать наиболее подходящий уровень иерархии в зависимости от задачи. Основным недостатком метода является его вычислительная сложность, что делает его менее подходящим для очень больших наборов данных.
DBSCAN (Density-Based Spatial Clustering of Applications with Noise)
DBSCAN – алгоритм кластеризации, основанный на плотности данных. Он идентифицирует плотные регионы данных и выделяет их в кластеры, эффективно обрабатывая шумовые данные и выявляя кластеры произвольной формы. Основные параметры DBSCAN включают (epsilon) (eps), определяющий радиус соседства точки, и ( minPts ), указывающий минимальное количество точек в радиусе (epsilon) для формирования кластера.
Основные шаги алгоритма DBSCAN:
1. Плотностная связь: Для каждой точки определяется плотность, основанная на числе соседних точек в радиусе ( epsilon ).
2. Формирование кластеров: Начинается с произвольной точки. Если плотность точки выше порогового значения (minPts), она считается начальной точкой кластера, и все плотностно-связанные точки включаются в этот кластер.
3. Обработка шума: Точки, которые не могут быть включены ни в один кластер (имеющие менее ( minPts ) соседей в радиусе epsilon , считаются шумом и не относятся ни к одному кластеру.
DBSCAN особенно эффективен для выявления кластеров произвольной формы и работы с шумом. В отличие от K-means, он не требует заранее задавать число кластеров. Однако выбор параметров (epsilon) и (minPts) может быть нетривиальной задачей и требовать тщательной настройки для конкретного набора данных.
2. Снижение размерности
Снижение размерности – это метод уменьшения числа признаков в данных, что упрощает модель и улучшает её интерпретируемость. Этот метод полезен для визуализации данных, уменьшения вычислительной сложности и устранения шума.
PCA (Principal Component Analysis)
Метод главных компонент (PCA) – это линейный метод снижения размерности, который преобразует данные в новое пространство меньшей размерности, сохраняя при этом максимальное возможное количество вариаций данных. Основная идея PCA заключается в нахождении новых осей (главных компонент), которые являются линейными комбинациями исходных признаков и упорядочены таким образом, что первая главная компонента объясняет наибольшую долю дисперсии в данных, вторая – вторую по величине, и так далее.
Процесс PCA включает следующие шаги:
1. Центрирование данных: Среднее значение каждого признака вычитается из всех значений, чтобы данные имели среднее значение, равное нулю.
2. Вычисление ковариационной матрицы: Определяется ковариационная матрица для центрированных данных, отражающая взаимосвязь между различными признаками.
3. Поиск собственных векторов и собственных значений: Собственные векторы ковариационной матрицы указывают направления главных компонент, а собственные значения определяют важность каждой из этих компонент.
4. Проекция данных: Данные проецируются на новое пространство, образованное главными компонентами.
PCA широко используется для предобработки данных, уменьшения шума, визуализации многомерных данных и как этап предварительного анализа перед применением других методов машинного обучения.
t-SNE (t-distributed Stochastic Neighbor Embedding)
t-SNE (t-distributed Stochastic Neighbor Embedding) – это нелинейный метод снижения размерности, который часто используется для визуализации высокоразмерных данных. В отличие от PCA, который сохраняет глобальную структуру данных, t-SNE фокусируется на сохранении локальной структуры данных. Это означает, что t-SNE старается сохранять близкие расстояния между точками, которые были близки в исходном пространстве, и раздельные расстояния между точками, которые были далеко друг от друга.
Основные шаги t-SNE включают:
1. Вычисление вероятностей: Для каждой пары точек в высокоразмерном пространстве вычисляются вероятности близости.
2. Оптимизация: В новом пространстве меньшей размерности t-SNE находит такие расположения точек, чтобы вероятности близости были максимально похожи на исходные.
3. Минимизация Kullback-Leibler расхождения: Процесс оптимизации включает минимизацию расхождения Kullback-Leibler между распределениями вероятностей в исходном и новом пространствах.
t-SNE особенно полезен для выявления кластеров и локальных структур в данных, что делает его популярным инструментом для визуализации данных в биоинформатике, нейронауках и других областях.
UMAP (Uniform Manifold Approximation and Projection)
UMAP (Uniform Manifold Approximation and Projection) – это современный метод снижения размерности, который, подобно t-SNE, фокусируется на сохранении локальной структуры данных. Однако UMAP часто работает быстрее и лучше масштабируется на большие наборы данных. Основной принцип UMAP заключается в предположении, что данные лежат на многообразии меньшей размерности в исходном пространстве, и стремится сохранять топологическую структуру этого многообразия при проекции в пространство меньшей размерности.
Основные этапы UMAP включают:
1. Построение графа k-ближайших соседей: Определяется граф, где точки связаны с их ближайшими соседями.
2. Оптимизация графа: Граф оптимизируется, чтобы минимизировать расхождение между распределениями расстояний в высокоразмерном и низкоразмерном пространствах.
Все книги на сайте предоставены для ознакомления и защищены авторским правом