比特币作为最早、最知名的加密货币,其“挖矿”过程一直伴随着巨大争议。“耗电量”是最常被提及的标签之一,有人称其为“吞噬电力的巨兽”,也有人认为这是“分布式网络的必要成本”,挖出一个比特币到底需要多少电?要回答这个问题,得先从比特币的“挖矿”原理说起。
比特币的挖矿本质是“记账竞争”,整个比特币网络没有中心化机构,所有交易记录都分布在“账本”(区块链)上,矿工们通过强大的计算机(矿机)竞争解决复杂的数学难题,第一个解出难题的矿工,就能获得“记账权”,并得到一定数量的比特币作为奖励(目前为6.25个,每四年减半一次)。

这个“数学难题”并非传统意义上的计算,而是一个“哈希运算”过程——即不断尝试不同的随机数(nonce),使得区块头的哈希值满足特定条件(比如小于某个目标值),由于哈希值的不可预测性,矿工只能通过“暴力尝试”来寻找答案,这需要消耗巨大的计算资源,也就是所谓的“算力”。
挖矿的耗电量,主要由两个因素决定:全网总算力和矿机能效。
比特币网络的总算力是指所有矿机算力的总和,单位是“EH/s”(1 EH/s = 10¹⁸次哈希/秒),随着比特币价格上升和矿工增多,全网算力呈指数级增长——2010年全网算力不足1 TH/s(1 TH/s = 10¹²次哈希/秒),2023年已突破500 EH/s,增长了50万倍。
算力越高,竞争越激烈,矿工需要更快的算力才能“抢到”记账权,就像100个人挖矿,可能1天就能挖出1个比特币;如果是10000个人挖矿,可能需要100天才能挖出1个,而总耗电量也会从“100人1天的电”变成“10000人100天的电”。
矿机的“能效”是衡量其耗电效率的关键指标,单位是“J/TH”(焦耳/太次哈希),即每进行1万亿次哈希运算消耗的电能,能效越低,挖矿越省电。

以目前主流的矿机(如蚂蚁S19 Pro)为例,其算力约110 TH/s,能效约29.5 J/TH,一台矿机每秒耗电量为:110 TH/s × 29.5 J/TH = 3245 J/s = 3245 W ≈ 3.245千瓦。
要计算挖1个比特币的总耗电量,需要分两步:先算全网挖出1个比特币需要多少“总算力·秒”,再结合总算力和矿机能效换算成电能。
比特币网络平均每10分钟(600秒)出1个区块(即6.25个比特币),那么挖1个比特币需要的时间是:600秒 ÷ 6.25 = 96秒。
在这96秒内,全网所有矿机都在竞争,只有最先解出难题的矿工能获得奖励,全网总算力在这96秒内消耗的“总算力·秒”,相当于“1个比特币的算力成本”,计算公式为:
总耗电量(千瓦时)= 全网总算力(EH/s)× 96秒 × 矿机能效(J/TH)÷ 3.6×10⁶
(注:1千瓦时=3.6×10⁶焦耳,1 EH/s=10¹⁸ TH/s)

2023年比特币全网总算力约为500 EH/s,主流矿机能效按30 J/TH计算(取平均值),代入公式:
总耗电量 = 500 × 10¹⁸ TH/s × 96秒 × 30 J/TH ÷ 3.6×10⁶
= 500 × 96 × 30 × 10¹² ÷ 3.6×10⁶
≈ 400 × 10⁶ 千瓦时 = 40万千瓦时
也就是说,2023年挖出1个比特币,平均需要消耗约40万千瓦时电能。
40万千瓦时(即40万度电)的电量,相当于什么?
更直观的是,比特币网络的年耗电量一度超过挪威、阿根廷等整个国家的用电量(据剑桥大学比特币耗电指数,2021年峰值年耗电约1500亿度电)。
比特币的高耗电量主要源于其“工作量证明”(PoW)机制——通过算力竞争确保网络安全,防止“双花攻击”(同一笔钱花两次),这种机制的特点是“安全但低效”,因为全网99.9%的算力最终都会被浪费(只有第一个解出难题的矿工的算力被“有效利用”)。
争议也随之而来:支持者认为,比特币的“去中心化”和“安全性”值得用高耗电量交换,且部分矿场已转向清洁能源(如水电、风电);反对者则批评,比特币挖矿加剧能源紧张,碳排放与日俱增,对环境不友好。
随着比特币“减半”(每四年奖励减半),矿工收入减少,可能会淘汰低效矿机,推动整体能效提升,行业也在探索替代PoW的机制(如权益证明PoS),但比特币核心社区对“改机制”争议较大,短期内难以改变。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:bangqikeconnect@gmail.com