纯用NumPy实现神经网络的示例代码

  • Post category:Python

以下是关于“纯用NumPy实现神经网络的示例代码”的完整攻略。

神经网络的基本结构

神经网络是一种由多个神经元组成的网络结构,它可以用来解决分类、回归等问题。神经网络的基本结构包括输入层、隐藏层和输出层。其中,输入层接收输入数据隐藏层对输入数据进行处理,输出层输出最终结果。下面是一个简单的神经网络结构示意图:

输入层 -> 隐藏 -> 输出层

神经网络的实现

下面是一个使用NumPy实现神经网络的示例代码:

import numpy as np

# 定义sigmoid函数
def sigmoid(x):
    return 1 / (1 + np.exp(-x))

# 定义神经网络类
class NeuralNetwork:
    def __init__(self, input_size, hidden_size, output_size):
        # 初始化权重
        self.weights1 = np.random.randn(input_size, hidden_size)
        self.weights2 = np.random.randn(hidden_size, output_size)

    def forward(self, X):
        # 前向传播
        self.z = np.dot(X, self.weights1)
        self.z2 = sigmoid(self.z)
        self.z3 = np.dot(self.z2, self.weights2)
        output = sigmoid(self.z3)
        return output

    def backward(self, X, y, output, learning_rate):
        # 反向传播
        self.output_error = y - output
        self.output_delta = self.output_error * sigmoid(output, derivative=True)

        self.z2_error = self.output_delta.dot(self.weights2.T)
        self.z2_delta = self.z2_error * sigmoid(self.z2, derivative=True)

        self.weights1 += X.T.dot(self.z2_delta) * learning_rate
        self.weights2 += self.z2.T.dot(self.output_delta) * learning_rate

    def train(self, X, y, learning_rate, epochs):
        for i in range(epochs):
            output = self.forward(X)
            self.backward(X, y, output, learning_rate)

    def predict(self, X):
        return self.forward(X)

# 创建神经网络对象
nn = NeuralNetwork(2, 3, 1)

# 训练数据
X = np.array([[0, 0], [0, 1], [1, 0], [1, 1]])
y = np.array([[0], [1], [1], [0]])

# 训练神经网络
nn.train(X, y, 0.1, 10000)

# 预测结果
print(nn.predict(X))

在上面的示例代码中,我们定义了一个sigmoid函数,用于激活神经元。然后定义了一个神经网络类,包括初始化权重、前向传播、反向传播、训练和预测等方法。在训练数据中,我们使用了XOR问题的数据集,即输入为[[0, 0], [0, 1], [1, 0], [1, 1]],输出为[[0], [1], [1], [0]]。最后,我们使用训练好的神经网络进行预测,并输出结果。

示例2

下面是另一个使用NumPy实现神经网络的示例代码,它实现了一个三层神经网络:

import numpy as np

# 定义sigmoid函数
def sigmoid(x):
    return  / (1 + np.exp(-x))

# 定义神经网络类
class NeuralNetwork:
    def __init__(self, input_size, hidden_size, output_size):
        # 初始化权重
        self.weights1 = np.random.randn(input_size, hidden_size)
        self.weights2 = np.random.randn(hidden_size, output_size)

    def forward(self, X):
        # 前向传播
        self.z = np.dot(X, self.weights1)
        self.z2 = sigmoid(self.z)
        self.z3 = np.dot(self.z2, self.weights2)
        output = sigmoid(self.z3)
        return output

    def backward(self, X, y, output, learning_rate):
        # 反向传播
        self.output_error = y - output
        self.output_delta = self.output_error * sigmoid(output, derivative=True)

        self.z2_error = self.output_delta.dot(self.weights2.T)
        self.z2_delta = self.z2_error * sigmoid(self.z2, derivative=True)

        self.weights1 += X.T.dot(self.z2_delta) * learning_rate
        self.weights2 += self.z2.T.dot(self.output_delta) * learning_rate

    def train(self, X, y, learning_rate, epochs):
        for i in range(epochs):
            output = self.forward(X)
            self.backward(X, y, output, learning_rate)

    def predict(self, X):
        return self.forward(X)

# 创建神经网络对象
nn = NeuralNetwork(2, 3, 1)

# 训练数据
X = np.array([[0, 0], [0, 1], [1, 0], [1, 1]])
y = np.array([[0], [1], [1], [0]])

# 训练神经网络
nn.train(X, y, 0.1, 10000)

# 预测结果
print(nn.predict(X))

在上面的示例代码中,我们同样定义了一个sigmoid函数和一个神经网络类。不同的是,这个神经网络类实现了一个三层神经网络,包括输入层、隐藏层和输出层。在训练数据中,我们同样使用了XOR问题的数据集。最后,我们使用训练好的神经网络进行预测,并输出结果。

综所述,使用NumPy实现神经网络的示例代码包括了神经网络的基本结构、sigmoid函数的定义、神经网络类的实现、训练数据的准备、神经网络的训练和预测等内容。在实际应用中,可以根据具体的需求选择合适的神经网络结构和训练数据。