hdoj2111 Saving HDU --贪心

zz/2024/7/13 10:50:22

分析:题不难,直接贴代码吧!

#include <iostream>
#include <algorithm>
#include <map>
#include <string>       #没有这行会报错
using namespace std;struct treasure {int pi; //单价int pm; //体积
};int cmp(struct treasure a, struct treasure b){return a.pi > b.pi;   //从大到小排序
}int main() {int v,n;int count;int weight;struct treasure jiegou[100];while (cin >> v &&v){weight=v;count=0;cin >> n;for(int i=0;i<n;i++){cin >> jiegou[i].pi;cin >> jiegou[i].pm;}sort(jiegou,jiegou+n,cmp); //结构题排序for(int i=0;i<n;i++){if(weight >=jiegou[i].pm){count+=jiegou[i].pm*jiegou[i].pi;weight=weight-jiegou[i].pm;continue;} else{count+= (weight)*jiegou[i].pi;break;}}cout << count << endl;}return 0;
}


http://www.ngui.cc/zz/2762624.html

相关文章

奇异值分解(SVD)和主成分分析(PCA)(讲解很清楚明了)

奇异值分解(SVD)原文链接&#xff1a;http://www.cnblogs.com/pinard/p/6251584.html 主成分分析(PCA)原文链接&#xff1a;http://www.cnblogs.com/pinard/p/6239403.html

牛牛打响指--大数做除法

链接&#xff1a;https://www.nowcoder.com/questionTerminal/442cbe24e08447729543510c2eb47082 来源&#xff1a;牛客网 牛牛在地上捡到了一个手套&#xff0c;他带上手套发现眼前出现了很多个小人&#xff0c;当他打一下响指&#xff0c;这些小人的数量就会发生以下变化&…

xgboost相比传统gbdt有何不同?xgboost为什么快?如何支持并行?

传统GBDT以CART作为基分类器&#xff0c;xgboost还支持线性分类器&#xff0c;这个时候xgboost相当于带L1和L2正则化项的逻辑斯蒂回归&#xff08;分类问题&#xff09;或者线性回归&#xff08;回归问题&#xff09;。传统GBDT在优化时只用到一阶导数信息&#xff0c;xgboost则…

markdown(md)文件的基本常用编辑语法

.md即markdown文件的基本常用编写语法&#xff08;图文并茂&#xff09; 原文&#xff1a;https://www.cnblogs.com/liugang-vip/p/6337580.html 起因&#xff1a; 因为现在的前端基本上都用上了前端构建工具&#xff0c;那就难免要写一些readme等等的说明性文件&#xff0c…

Ocpc 效果广告中对达成率较好的广告主出价提权重设想

一、背景 OCPC 是效果广告最近两年比较好的业务模式&#xff0c;目标是通过对广告主 ROI 进行优化&#xff0c;在满足广告主达成的情况下&#xff0c;提高平台整体收益。OCPC广告在实际的投放过程中存在&#xff1a; 1、个别广告主因为广告创意、媒体&#xff08;平台&#xf…

论文笔记:Few-Shot Lear With Graph Neural Networks

论文链接:Few shot learning with graph neural networks github代码链接:pytorch实现 1,INTRODUCTIION 1,元学习(新的监督学习):它的输入-输出对设置由图像集合的iid样本及其相关标签相似性代替了图像的iid样本和它相关标签. 2,探索利用相似样本的分布 代替 利用正则化取弥…

论文笔记LSTD: A Low-Shot Transfer Detector for Object Detection

zero-shot one-shot few-shot区别链接 Abstract 1,为了解决训练样本不足的问题,提出了LSTD模型,并整合了SSD与faster rcnn模型的优点(即SSD部分模型与faster rcnn部分模型结合) 2,为了进一步提高检测的微调,提出了一种新的正则化方法:基于原域和目标域的转移指数(TK)和背景抑制…

pytorch中的一般的损失函数

链接:pytorch一般损失函数

弱监督学习,及弱监督检测

弱监督学习 弱监督目标检测