ساخت مدل طبقه‌بند K-Nearest Neighbors (KNN) با استفاده از پایتون

در این پست وبلاگ، قصد داریم با استفاده از پایتون، یک مدل طبقه‌بند K-Nearest Neighbors (KNN) ایجاد کنیم. الگوریتم KNN یکی از محبوب‌ترین روش‌های طبقه‌بندی در یادگیری ماشین است که در بسیاری از کاربردهای واقعی مورد استفاده قرار می‌گیرد.

برای شروع، داده‌های آموزشی و تست را ایجاد می‌کنیم. برای این مثال، از داده‌های ابرصفحه استفاده می‌کنیم که شامل دو ویژگی (طول و عرض) و دو دسته‌بندی (قرمز و آبی) است.

 
import numpy as np

# create training data
X_train = np.array([[3, 1], [2, 5], [1, 8], [6, 4], [5, 2], [3, 5]])
y_train = ['red', 'red', 'red', 'blue', 'blue', 'blue']

# create test data
X_test = np.array([[4, 5], [4, 2]])

 

سپس، ما یک شی KNeighborsClassifier از کتابخانه scikit-learn ایجاد می‌کنیم و مدل را با استفاده از داده‌های آموزشی آموزش می‌دهیم:

 
from sklearn.neighbors import KNeighborsClassifier

# create the classifier
clf = KNeighborsClassifier(n_neighbors=3)

# fit the model
clf.fit(X_train, y_train)

حالا، با استفاده از داده‌های تست، پیش‌بینی‌ها را انجام می‌دهیم:

 
# make predictions on test data
y_pred = clf.predict(X_test)

# print the predictions
print(y_pred)

در نهایت، پیش‌بینی‌های مدل را چاپ می‌کنیم که برای داده‌های تست، دسته‌بندی آن‌ها را نشان می‌دهد.


این مثال نشان می‌دهد که چگونه با استفاده از کتابخانه scikit-learn و پایتون، می‌توان یک مدل KNN برای طبقه‌بندی داده‌ها ایجاد کرد.

 

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *