首页 > 编程学习 > 试题 算法训练 二进制数数

试题 算法训练 二进制数数

发布时间:2022/10/5 16:44:51

思路:先将十进制数转成二进制,然后计算区间内每个二进制数的1的个数相加即可。

问题描述
  给定L,R。统计[L,R]区间内的所有数在二进制下包含的“1”的个数之和。
  如5的二进制为101,包含2个“1”。
输入格式
  第一行包含2个数L,R
输出格式
  一个数S,表示[L,R]区间内的所有数在二进制下包含的“1”的个数之和。
样例输入
2 3
样例输出
3
数据规模和约定
  L<=R<=100000;

inlist = list(map(int,input().split()))
start = inlist[0]
end = inlist[1]
s = 0
for i in range(start,end+1):# [L,R]区间内的所有数在二进制下包含的“1”的个数之和。x = str(bin(i)[2:])s += x.count('1')
print(s)

本文链接:https://www.ngui.cc/el/1524377.html
Copyright © 2010-2022 ngui.cc 版权所有 |关于我们| 联系方式| 豫B2-20100000