Lazy loaded image
学习笔记
🗒️深度学习第四章线性回归和逻辑回归
字数 708阅读时长 2 分钟
2024-6-24
2025-1-10
type
status
date
slug
summary
tags
category
icon
password

4.1 回归

notion image
1、回归分类
notion image

4.2 线性回归模型

1、线性回归是利用数理统计中的回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法,运用十分广泛
notion image
notion image

4.3 一元线性回归的实现

1、思路:先给定一个训练集,根据这个训练集学习出一个线性函数,然后预测这个函数训练的好与不好,挑出最好的函数,再用这个最好的函数完成预测。

4.4 梯度及梯度下降

4.4.1 梯度

梯度是微积分中的一个重要概念。
1、在单变量函数中,梯度就是函数的微分,代表着函数在某个定点的切线的斜率。
2、在多变量函数中,梯度是一个向量,向量有方向,梯度的方向或反方向就指明了函数在给定点的上升或下降最快的方向。

4.4.2 梯度下降法

1、梯度下降是迭代法的一种。在求解损失函数的最小值时,可以通过梯度下降法来一步步迭代求解,得到最小化的损失函数和模型参数值。
2、在深度学习中,基于基本的梯度下降法发展了两种梯度下降方法,分别为随机梯度下降法和批量梯度下降法。
3、在梯度下降法调优中,影响较大的三个因素为步长、初始值和归一化。
(1)步长:又称学习率,决定了梯度下降迭代过程中每一步沿梯度负方向前进的长度,也就是上述所说的沿最陡峭的位置走的那一步的长度
(2)初始值:随机选取的值,当损失函数是非凸函数时,找到的可能是局部最优解,此时需要多测试几次,从局部最优解中找出最优解。当损失函数是凸函数时,得到的解就是最优解。
(3)归一化:若不进行归一化,会导致收敛速度很慢,从而形成“之”字形的路线

4.5 多元线性回归实现

4.6 逻辑回归

4.6.1 什么是逻辑回归

y=wx+b
逻辑函数是逻辑回归的核心(Sigmoid函数)

4.6.2 逻辑回归的损失函数

notion image

4.6.3 逻辑回归的代码实现

1、导入包
2、准备数据
3、定义模型
4、定义损失函数和优化器
5、训练模型
6、得到结果

课上练习

上一篇
深度学习第五章多层全连接神经网络
下一篇
深度学习第三章PyTorch基础

评论
Loading...