CSP 202206-1 归一化处理

简介: CSP 202206-1 归一化处理

本题链接CSP 202206-1 归一化处理

本博客给出本题截图

image.png

C++

#include <iostream>
#include <cstdio>
#include <cstring>
#include <algorithm>
#include <cmath>
using namespace std;
const int N = 1010;
double a[N];  // 直接定义为double类型不用进行后续的强制转换
int main()
{
    int n;
    double sum = 0;
    cin >> n;
    for (int i = 0; i < n; i ++ ) cin >> a[i], sum += a[i];
    double ave = sum / n, d = 0;
    for (int i = 0; i < n; i ++ ) d += pow(a[i] - ave, 2);
    d /= n;
    for (int i = 0; i < n; i ++ ) printf("%lf\n", (a[i] - ave) / sqrt(d));
    return 0;
}

总结

会调用几个数学函数即可,题目让做什么做什么就可以了,题目中a数组虽然存的是整数但是定义为浮点数也没什么大不了的,可以省几步的强制转换,再一个就是误差不超过10-4就可以了,所以没必要输出小数点后那么多位,题干在最后也提示了,直接 printf 即可。

目录
打赏
0
0
0
0
62
分享
相关文章
YOLOv11改进策略【损失函数篇】| 将激活函数替换为带有注意力机制的激活函数 ARelu
YOLOv11改进策略【损失函数篇】| 将激活函数替换为带有注意力机制的激活函数 ARelu
68 6
YOLOv11改进策略【损失函数篇】| 将激活函数替换为带有注意力机制的激活函数 ARelu
YOLOv11改进策略【卷积层】| ICCV-2023 引入Dynamic Snake Convolution动态蛇形卷积,改进C3k2
YOLOv11改进策略【卷积层】| ICCV-2023 引入Dynamic Snake Convolution动态蛇形卷积,改进C3k2
76 0
YOLOv11改进策略【卷积层】| ICCV-2023 引入Dynamic Snake Convolution动态蛇形卷积,改进C3k2
神经网络可能不再需要激活函数?Layer Normalization也具有非线性表达!
【7月更文挑战第14天】研究表明,层归一化(LayerNorm)可能具备非线性表达能力,挑战了神经网络对激活函数的依赖。在LN-Net结构中,仅使用线性层与LayerNorm就能实现复杂分类,其VC维度下界证明了非线性表达。尽管如此,是否能完全替代激活函数及如何有效利用这一特性仍需更多研究。[arXiv:2406.01255]
100 5
YOLOv8改进 | 卷积模块 | 用坐标卷积CoordConv替换Conv
💡💡💡本专栏所有程序均经过测试,可成功执行💡💡💡
损失函数:均方误和交叉熵,激活函数的作用
损失函数(loss function)或代价函数(cost function)是将随机事件或其有关随机变量的取值映射为非负实数以表示该随机事件的“风险”或“损失”的函数。
损失函数:均方误和交叉熵,激活函数的作用
PCA线性降维 与 自编码器(Auto-Encoder )
本分分享了关于学习参考多篇博客PCA降维算法,自编码神经网络算法的原理后总结的个人理解,以供参考学习
838 0
可变形卷积 Deformable Convolution的简单理解
可变形卷积 Deformable Convolution的简单理解
249 0