BP人工神经网络改进算法C语言
BP网络接受样本的顺序会对训练结果有较大的影响,基本算法比较“偏爱”较后出现的样本,因此,改进算法为对整个样本集的训练,用“总效果”去实施对权矩阵的修改,这就能比较好的解决因样本顺序引起的精度问题和训练的抖动。改进后的算法如下:
#include <stdlib.h>
#include <math.h>
#include <stdio.h>
#include <time.h>
#define OUT_COUT 2 //输出向量维数
#define IN_COUT 3 //输入向量维数
#define COUT 6 //样本数量
typedef struct { //bp人工神经网络结构
int h; //实际使用隐层数量
double v[IN_COUT][50]; //隐藏层权矩阵i,隐层节点最大数量为100
double w[50][OUT_COUT]; //输出层权矩阵
double a; //学习率
double b; //精度控制参数
int LoopCout; //最大循环次数
} bp_nn;
double fnet(double net) { //Sigmoid函数,神经网络激活函数
return 1/(1+exp(-net));
}
int InitBp(bp_nn *bp) { //初始化bp网络
printf("请输入隐层节点数,最大数为100:\n");
scanf("%d", &(*bp).h);
printf("请输入学习率:\n");
scanf("%lf", &(*bp).a); //(*bp).a为double型数据,所以必须是lf
printf("请输入精度控制参数:\n");
scanf("%lf", &(*bp).b);
printf("请输入最大循环次数:\n");
scanf("%d", &(*bp).LoopCout);
int i, j;
srand((unsigned)time(NULL));
for (i = 0; i < IN_COUT; i++)
for (j = 0; j < (*bp).h; j++)
(*bp).v[i][j] = rand() / (double)(RAND_MAX);
for (i = 0; i < (*bp).h; i++)
for (j = 0; j < OUT_COUT; j++)
(*bp).w[i][j] = rand() / (double)(RAND_MAX);
return 1;
}
int TrainBp(bp_nn *bp, float x[COUT][IN_COUT], int y[COUT][OUT_COUT]) {
//训练bp网络,样本为x,理想输出为y
double f = (*bp).b; //精度控制参数
double a = (*bp).a; //学习率
int h = (*bp).h; //隐层节点数
double v[IN_COUT][50], w[50][OUT_COUT]; //权矩阵
double Ch_v[IN_COUT][50], Ch_w[50][OUT_COUT]; //权矩阵修改量
double ChgH[50], ChgO[OUT_COUT]; //修改量矩阵
double O1[50], O2[OUT_COUT]; //隐层和输出层输出量
int LoopCout = (*bp).LoopCout; //最大循环次数
int i, j, k, n;
double temp;
for (i = 0; i < IN_COUT; i++) // 复制结构体中的权矩阵
for (j = 0; j < h; j++)
v[i][j] = (*bp).v[i][j];
for (i = 0; i < h; i++)
for (j = 0; j < OUT_COUT; j++)
w[i][j] = (*bp).w[i][j];
double e = f + 1;
for (n = 0; e > f && n < LoopCout; n++) { //对每个样本训练网络
e = 0;
for (j = 0; j < OUT_COUT; j++)
ChgO[j] = 0;
for (j = 0; j < h; j++)
ChgH[j] = 0;
for (j = 0; j < h; j++)
for (k = 0; k < OUT_COUT; k++)
Ch_w[j][k] = 0;
for (j = 0; j < IN_COUT; j++)
for (k = 0; k < h; k++)
Ch_v[j][k] = 0;
for (i= 0; i < COUT; i++) {
for (k= 0; k < h; k++) { //计算隐层输出向量
temp = 0;
for (j = 0; j < IN_COUT; j++)
temp = temp + x[i][j] * v[j][k];
O1[k] = fnet(temp);
}
for (k = 0; k < OUT_COUT; k++) { //计算输出层输出向量
temp = 0;
for (j = 0; j < h; j++)
temp = temp + O1[j] * w[j][k];
O2[k] = fnet(temp);
}
for (j = 0; j < OUT_COUT ; j++) //计算输出误差
e = e + (y[i][j] - O2[j]) * (y[i][j] - O2[j]);
for (j = 0; j < OUT_COUT; j++)
ChgO[j] = O2[j] * (1 - O2[j]) * (y[i][j] - O2[j]);
for (j = 0; j < h; j++)
for (k = 0; k < OUT_COUT; k++)
Ch_w[j][k] += a * O1[j] * ChgO[k]; //累加所有样本训练后的改变量
for (j = 0; j < h; j++) {
temp = 0;
for (k = 0; k < OUT_COUT; k++)
temp = temp + w[j][k] * ChgO[k];
ChgH[j] = temp * O1[j] * (1 - O1[j]);
}
for (j = 0; j < IN_COUT; j++)
for (k = 0; k < h; k++)
Ch_v[j][k] += a * x[i][j] * ChgH[k]; //累加所有样本训练后的改变量,消除样本顺序影响
}
for (j = 0; j < h; j++) //修改输出层权矩阵
for (k = 0; k < OUT_COUT; k++)
w[j][k] = w[j][k] + Ch_w[j][k];
for (j = 0; j < IN_COUT; j++) //修改隐藏层权矩阵
for (k = 0; k < h; k++)
v[j][k] = v[j][k] + Ch_v[j][k];
if (n % 10 == 0) {
printf("误差 : %f\n", e);
printf("循环次数:%d\n", n);
}
}
printf("总共循环次数:%d\n", n);
printf("调整后的隐层权矩阵:\n");
for (i = 0; i < IN_COUT; i++) {
for (j = 0; j < h; j++)
printf("%f ", v[i][j]);
printf("\n");
}
printf("调整后的输出层权矩阵:\n");
for (i = 0; i < h; i++) {
for (j = 0; j < OUT_COUT; j++)
printf("%f ", w[i][j]);
printf("\n");
}
for (i = 0; i < IN_COUT; i++) //把结果复制回结构体
for (j = 0; j < h; j++)
(*bp).v[i][j] = v[i][j];
for (i = 0; i < h; i++)
for (j = 0; j < OUT_COUT; j++)
(*bp).w[i][j] = w[i][j];
printf("bp网络训练结束!\n");
return 1;
}
int UseBp(bp_nn *bp) { //使用bp网络
float Input[IN_COUT];
double O1[50];
double O2[OUT_COUT]; //O1为隐层输出,O2为输出层输出
while (1) { //持续执行,除非中断程序
printf("请输入3个数:\n");
int i, j;
for (i = 0; i < IN_COUT; i++)
scanf("%f", &Input[i]);
double temp;
for (i = 0; i < (*bp).h; i++) {
temp = 0;
for (j = 0; j < IN_COUT; j++)
temp += Input[j] * (*bp).v[j][i];
O1[i] = fnet(temp);
}
for (i = 0; i < OUT_COUT; i++) {
temp = 0;
for (j = 0; j < (*bp).h; j++)
temp += O1[j] * (*bp).w[j][i];
O2[i] = fnet(temp);
}
printf("结果: ");
for (i = 0; i < OUT_COUT; i++)
printf("%.3f ", O2[i]);
printf("\n");
}
return 1;
}
int main()
{
float x[COUT][IN_COUT] = {{0.8,0.5,0},
{0.9,0.7,0.3},
{1,0.8,0.5},
{0,0.2,0.3},
{0.2,0.1,1.3},
{0.2,0.7,0.8}}; //训练样本
int y[COUT][OUT_COUT] = {{0,1},
{0,1},
{0,1},
{1,0},
{1,0},
{1,0}}; //理想输出
bp_nn bp;
InitBp(&bp); //初始化bp网络结构
TrainBp(&bp, x, y); //训练bp神经网络
UseBp(&bp); //测试bp神经网络
return 1;
}
BP人工神经网络改进算法C语言
来源:互联网 发布日期:2011-12-04 19:30:57 浏览:25488次
导读:BP网络接受样本的顺序会对训练结果有较大的影响,基本算法比较“偏爱”较后出现的样本,因此,改进算法为对整个样本集的训练,用“总效果”去实施对权矩阵的修改,这就能比较好的解决因样本顺序引起的精度问题和训练的抖动。改进后的算法如下:...
相关内容
- DSL Linux 系统时隔 12 年回归更新,体积从 50MB 膨胀到 700MB
- 调查:AMD AI芯片 Instinct MI300X 吸引大量用户弃用英伟达
- 英特尔突袭英伟达H100,新AI芯片训练快40%,推理快50%,CEO蹦迪庆祝
- 三星组建 HBM 产能质量提升团队,加速 AI 推理芯片 Mach-2 开发
- 奥特曼造芯、Sora炸场与英伟达RTX——AI关键词:“大力出奇迹”
- 马斯克脑机接口再造奇迹:瘫痪小伙意念玩赛车击败正常人
- 又一AI爆款应用!字节Gauth在美国走红 数理化多科目“全能辅导”
- 先台积电一步,三星已斩获首个 2nm 工艺芯片订单
- 豪赌AI芯片!孙正义被曝筹资1000亿美元,要抗衡英伟达?
- 日本芯片复苏的关键角色
AiLab云推荐
最新资讯
- 纳米缝合让复合材料更轻更坚韧
- Meta全新自研AI芯片曝光:性能相比MTIA v1提升了3倍!
- M4芯片将专注于AI!苹果据称拟全面升级Mac产品线,股价涨超4%
- 英特尔甩出全新AI训练芯片!跑千亿大模型速度超H200,罕见披露AI浮点性能
- 英特尔突袭英伟达H100,新AI芯片训练快40%,推理快50%,CEO蹦迪庆祝
- 对话东方晶源:打造中国芯片制造的GoldenFlow
- 一颗改变了世界的芯片
- 英特尔展示多模块芯片,预计为 Gaudi 3 人工智能加速器
- 台地震影响全球半导体格局?分析称可能会让供应链多元化呼声更强烈
- 三星 Exynos 2500 芯片再爆料:加码NPU芯片,构建更丰富 AI 体验
本月热点
热门排行
-
ChatGPT 设计了一款芯片
阅读量:194544
-
2023年全球风投额创5年最低,机构:今年会有更多创业公司倒闭
阅读量:193736
-
计算效率提升超60倍!中国公司杉数科技用GPU芯片开启运筹学新的“大航海时代”|钛媒体焦点
阅读量:190109
-
2023,AI创业者的50条反思
阅读量:101744
-
专访清华大学脑机接口科研团队负责人:中美“脑机接口”下一突破是什么?
阅读量:62517
-
2024,AI芯片之争加剧
阅读量:23751
推荐内容
- CIBF2024
- 2024年香港礼品及赠品展览会
- 2024第26届山东国际水展
- 2024第19届潍坊春季茶业博览会暨紫砂展
- 2024CXBE厦门美妆供应链博览会
- 2024厦门日化产品技术供应链博览会-打造东南国际市场新坐标!
- 2024深圳国际文创新品展
- 2024第10届深圳国际IP授权产业博览会(CIPE)
- 2024晋冀鲁豫国际门窗幕墙展览会
- 2024中国昆山第二十四届国际机床及智能装备展览会
- 2024长春第十八届连锁加盟创业项目展览会暨2024 东北长春餐博会暨首届预制菜展览会
- 2024第二十六届山东国际供热供暖、暖炉及空调技术与设备展览会(JINNOC国际供热展)
- 2024第七届中国(昆明)南亚社会公共安全科技博览会
- 2024第三十二届中国(深圳)国际礼品及家居用品展览会(深圳礼品展)