以下是关于“纯用NumPy实现神经网络的示例代码”的完整攻略。
神经网络的基本结构
神经网络是一种由多个神经元组成的网络结构,它可以用来解决分类、回归等问题。神经网络的基本结构包括输入层、隐藏层和输出层。其中,输入层接收输入数据隐藏层对输入数据进行处理,输出层输出最终结果。下面是一个简单的神经网络结构示意图:
输入层 -> 隐藏 -> 输出层
神经网络的实现
下面是一个使用NumPy实现神经网络的示例代码:
import numpy as np
# 定义sigmoid函数
def sigmoid(x):
return 1 / (1 + np.exp(-x))
# 定义神经网络类
class NeuralNetwork:
def __init__(self, input_size, hidden_size, output_size):
# 初始化权重
self.weights1 = np.random.randn(input_size, hidden_size)
self.weights2 = np.random.randn(hidden_size, output_size)
def forward(self, X):
# 前向传播
self.z = np.dot(X, self.weights1)
self.z2 = sigmoid(self.z)
self.z3 = np.dot(self.z2, self.weights2)
output = sigmoid(self.z3)
return output
def backward(self, X, y, output, learning_rate):
# 反向传播
self.output_error = y - output
self.output_delta = self.output_error * sigmoid(output, derivative=True)
self.z2_error = self.output_delta.dot(self.weights2.T)
self.z2_delta = self.z2_error * sigmoid(self.z2, derivative=True)
self.weights1 += X.T.dot(self.z2_delta) * learning_rate
self.weights2 += self.z2.T.dot(self.output_delta) * learning_rate
def train(self, X, y, learning_rate, epochs):
for i in range(epochs):
output = self.forward(X)
self.backward(X, y, output, learning_rate)
def predict(self, X):
return self.forward(X)
# 创建神经网络对象
nn = NeuralNetwork(2, 3, 1)
# 训练数据
X = np.array([[0, 0], [0, 1], [1, 0], [1, 1]])
y = np.array([[0], [1], [1], [0]])
# 训练神经网络
nn.train(X, y, 0.1, 10000)
# 预测结果
print(nn.predict(X))
在上面的示例代码中,我们定义了一个sigmoid函数,用于激活神经元。然后定义了一个神经网络类,包括初始化权重、前向传播、反向传播、训练和预测等方法。在训练数据中,我们使用了XOR问题的数据集,即输入为[[0, 0], [0, 1], [1, 0], [1, 1]],输出为[[0], [1], [1], [0]]。最后,我们使用训练好的神经网络进行预测,并输出结果。
示例2
下面是另一个使用NumPy实现神经网络的示例代码,它实现了一个三层神经网络:
import numpy as np
# 定义sigmoid函数
def sigmoid(x):
return / (1 + np.exp(-x))
# 定义神经网络类
class NeuralNetwork:
def __init__(self, input_size, hidden_size, output_size):
# 初始化权重
self.weights1 = np.random.randn(input_size, hidden_size)
self.weights2 = np.random.randn(hidden_size, output_size)
def forward(self, X):
# 前向传播
self.z = np.dot(X, self.weights1)
self.z2 = sigmoid(self.z)
self.z3 = np.dot(self.z2, self.weights2)
output = sigmoid(self.z3)
return output
def backward(self, X, y, output, learning_rate):
# 反向传播
self.output_error = y - output
self.output_delta = self.output_error * sigmoid(output, derivative=True)
self.z2_error = self.output_delta.dot(self.weights2.T)
self.z2_delta = self.z2_error * sigmoid(self.z2, derivative=True)
self.weights1 += X.T.dot(self.z2_delta) * learning_rate
self.weights2 += self.z2.T.dot(self.output_delta) * learning_rate
def train(self, X, y, learning_rate, epochs):
for i in range(epochs):
output = self.forward(X)
self.backward(X, y, output, learning_rate)
def predict(self, X):
return self.forward(X)
# 创建神经网络对象
nn = NeuralNetwork(2, 3, 1)
# 训练数据
X = np.array([[0, 0], [0, 1], [1, 0], [1, 1]])
y = np.array([[0], [1], [1], [0]])
# 训练神经网络
nn.train(X, y, 0.1, 10000)
# 预测结果
print(nn.predict(X))
在上面的示例代码中,我们同样定义了一个sigmoid函数和一个神经网络类。不同的是,这个神经网络类实现了一个三层神经网络,包括输入层、隐藏层和输出层。在训练数据中,我们同样使用了XOR问题的数据集。最后,我们使用训练好的神经网络进行预测,并输出结果。
综所述,使用NumPy实现神经网络的示例代码包括了神经网络的基本结构、sigmoid函数的定义、神经网络类的实现、训练数据的准备、神经网络的训练和预测等内容。在实际应用中,可以根据具体的需求选择合适的神经网络结构和训练数据。