看來這些人大概認(rèn)為AI會在12到18個(gè)月內(nèi)取代扎克伯格之類的高管
我们来看看为什么那些预测编码工作会消失的人,无意中给自己写下了下岗的通知……
硅谷预言家小团体及其 meme 衬衫“每个人都会在15分钟内出名。” — 安迪·沃霍尔,显然预见了科技CEO们因不恰当地盯着瞧同事的另一半而突然爆红的场景.
“在12到18个月内,大多数投入到这些努力的代码将由AI编写。” 这是马克·扎克伯格在2025年1月说过的话,就在他因为被拍到似乎在盯着杰夫·贝佐斯未婚妻的胸口看而意外走红的几天前——这一幕催生了无数梗和笑话,甚至在“知道你的梗”网站上都有专门条目。
扎克伯格关于人工智能的预测和他的制造梗的能力并不是独一无二的。Anthropic 公司的首席执行官达里奥·阿莫德伊最近声称,“在接下来的3到6个月内,人工智能将编写90%的代码,而在12个月内,几乎所有的代码都可能由人工智能生成。” 同时,英伟达的黄仁勋——他的皮夹克几乎和扎克伯格的社交尴尬时刻一样出名,售价高达8990美元——建议年轻人完全放弃编程,转而从事生物、教育或农业领域的工作,仿佛这些领域能够免受技术变革的影响。
特别有意思的是,这些宣告被两个截然不同的群体热情地放大:除了Excel公式外,从未写过一行真正的代码的中层管理人员,以及那群长期以来一直嫉妒程序员特权,却死活不肯学所谓的“设计模式”的评论员。
# 分析“AI将取代程序员”的预测热情
def analyze_programmer_replacement_enthusiasm():
"""
研究最兴奋于AI取代程序员的人群
"""
enthusiasm_by_group = {
"tech_executives": {
"enthusiasm_level": 0.85,
"primary_motivation": "减少成本同时保留高管职位",
"actual_coding_experience": "近十年几乎为零",
"meme_generating_ability": "高,尤其是盯着同事伴侣时"
},
"middle_management": {
"enthusiasm_level": 0.92,
"primary_motivation": "消除那些总是指出他们计划缺陷的人",
"actual_coding_experience": "曾经在2007年编辑过一次HTML文件",
"meme_generating_ability": "中等,主要通过PowerPoint失误"
},
"business_commentators": {
"enthusiasm_level": 0.95,
"primary_motivation": "吸引点击的标题和对技术薪资的不满",
"actual_coding_experience": "曾经让ChatGPT写过一次'Hello World'(示例代码)",
"meme_generating_ability": "低,但通过自信的错误来弥补"
},
"actual_software_engineers": {
"enthusiasm_level": 0.35,
"primary_motivation": "消除无聊、重复的任务",
"actual_coding_experience": "广泛且当前",
"meme_generating_ability": "高,但仅限于晦涩的编程笑话"
}
}
# 计算热情与编程经验之间的相关性
groups = list(enthusiasm_by_group.keys())
enthusiasm_levels = [enthusiasm_by_group[g]["enthusiasm_level"] for g in groups]
# 简单的逆相关关系计算
inverse_relationship = sum([enthusiasm_by_group[g]["enthusiasm_level"] *
(1 if enthusiasm_by_group[g]["actual_coding_experience"] == "广泛且当前" else 0)
for g in groups]) < 0.5
return {
"groups": enthusiasm_by_group,
"has_inverse_relationship": inverse_relationship,
"conclusion": "对AI取代程序员的热情与真正了解编程的实际内容成反比"
}
但如果我们反过来使用这个预言望远镜会怎么样呢?让我们思考一下,那些预言编码行业末日的人,是否在描述自己将要被淘汰。
中层管理人员:AI的理想实验对象“科技被两类人所主导:那些理解而不管理的人,以及管理但不懂的人。” — 普特定律,完美地说明了为什么管理岗位很容易被AI取代。
普通的中层管理人员具体都做些什么呢?让我们仔细看看中层管理人员具体都做些什么。
# 典型中层管理任务及其自动化潜力分析
def analyze_middle_management_functions():
"""
评估中层管理核心职能及其被AI替代的可能性
"""
management_functions = {
"data_analysis": {
"description": "看着电子表格并假装明白趋势走向",
"complexity": "中等但枯燥",
"pattern_based": True,
"ai_replaceable": 0.98,
"notes": "AI实际上会理解统计数据,而大多数管理者不会"
},
"resource_allocation": {
"description": "根据谁抱怨最少来工作分配",
"complexity": "低但政治复杂",
"pattern_based": True,
"ai_replaceable": 0.95,
"notes": "AI会优化效率,而不是根据上周五谁请客"
},
"performance_reviews": {
"description": "一年一度的主观评价包装成客观的把戏",
"complexity": "中等偏低",
"pattern_based": True,
"ai_replaceable": 0.90,
"notes": "AI至少能一致应用选择的任意指标"
},
"strategic_planning": {
"description": "用虚幻箭头装点的PowerPoint",
"complexity": "中等",
"pattern_based": True,
"ai_replaceable": 0.85,
"notes": "AI的预测可能具有一定的统计有效性"
},
"meeting_attendance": {
"description": "开会时偷偷查邮件",
"complexity": "低",
"pattern_based": True,
"ai_replaceable": 0.99,
"notes": "AI可以生成适当的点头和'好主意'的回应"
}
}
# 计算平均可替代性
total_replaceability = sum(function["ai_replaceable"] for function in management_functions.values())
avg_replaceability = total_replaceability / len(management_functions)
return {
"functions": management_functions,
"average_ai_replaceability": avg_replaceability,
"conclusion": f"据现在的AI技术,中层管理职位大概有{avg_replaceability*100:.1f}%的机会被自动化"
}
一个让人不太舒服的事实是,中层管理者主要做的是模式识别、数据分析,以及基于有限变量的决策——这正是现代AI擅长的事情。在LinkedIn上,人们喜欢标注的“战略思维”,实际上只是多年坐在无果会议中所学到的模式识别而已。
当管理者坚持认为他们的“专业知识”是不可替代的时,他们实际上是在声称他们识别熟悉的公司情况的能力是独一无二的。然而,模式识别正是机器学习最擅长的,而且与人类不同,它不需要用复杂的语言来证明自己的价值。
认知偏差让管理变“过时”了?“有块手表的人知道时间,有两个手表的人却总是无法确定。” — Segal定律这么说,管理与数据点的关系就像有一个和两个手表的人一样。
与人类管理者不同,AI 没有人类高管的认知偏见,这些偏见会困扰决策过程。这些偏见并非只是理论上的,已被广泛记录和研究,从而系统性地削弱了管理效果。由此可见,这些偏见实际上一直在削弱管理效果。
# 人类经理与AI决策过程的对比
def compare_decision_processes():
"""
比较人类经理和AI系统的决策过程
"""
认知偏差 = {
"confirmation_bias": {
"description": "只看到能证实自己现有信念的数据",
"human_manager_example": "那份市场调研并不反映我们的客户群体",
"ai_system_approach": "无论数据是否与之前的分析相矛盾,都会进行全面分析",
"scientific_evidence": "研究表明,即使是专家决策者也会受到这种偏差的影响,即使他们意识到了这一点(Nickerson, 1998)"
},
"sunk_cost_fallacy": {
"description": "继续进行已经失败的项目,因为已经投入了大量资金",
"human_manager_example": "我们在元宇宙项目中投入了太多资金,现在无法停止",
"ai_system_approach": "仅根据未来预期价值来评估选项",
"scientific_evidence": "已经证明会影响大型企业投资(Arkes & Blumer, 1985)"
},
"overconfidence_bias": {
"description": "面对大量相反证据仍表现出绝对的确定性",
"human_manager_example": "相信转向加密货币一定会成功",
"ai_system_approach": "提供置信区间和概率分布",
"scientific_evidence": "尤其在高级管理层中常见(Camerer & Lovallo, 1999)"
},
"groupthink": {
"description": "每个人都同意房间里那个薪水最高的人的观点",
"human_manager_example": "CEO 认为这是一个好主意,所以让我们实施吧",
"ai_system_approach": "没有寻求社会认同或害怕违背权威的顾虑",
"scientific_evidence": "是瑞士航空公司倒闭等企业灾难的主要因素"
},
"anchoring_effect": {
"description": "对最初遇到的信息存在过度依赖",
"human_manager_example": "上个季度的销售数据应该作为我们的基准",
"ai_system_approach": "适当权衡所有相关的历史数据",
"scientific_evidence": "影响定价、谈判和预测(Tversky & Kahneman, 1974)"
}
}
# 决策示例场景
项目评估人类 = """
1. 审查项目指标(重点关注支持经理个人项目的那些)
2. 回忆与先前观点一致的个人经验
3. 考虑决策对公司层级的政治影响
4. 无论其专业能力如何,都重视高管的意见
5. 根据个人职业晋升机会做出决策
"""
项目评估AI = """
1. 无偏好地分析所有可用的项目数据点(无论是数百万还是数十个)
2. 客观地权衡历史表现与未来预测
3. 使用概率模型计算所有可能选项的预期价值
4. 提供透明且可复制的推荐理由
5. 不考虑办公室政治或其他个人利益
"""
return {
"biases": 认知偏差,
"human_process": 项目评估人类,
"ai_process": 项目评估AI,
"conclusion": "AI系统从根本上比人类管理决策少受认知偏差的影响"
}
考虑一些引人注目的企业失误——在没人感兴趣的虚拟现实上投入了数十亿美元,打车公司没有预料到明显的监管反应,或者科技巨头错失了人工智能革命,直到不得不匆忙追赶。这些失误并不是技术实施的问题,而是由于管理层的判断被确认偏见、过度自信和群体思维所蒙蔽。
沉没成本谬误 — 我们倾向于继续在明显不起作用的事情上投入,仅仅为了避免承认失败 — 被认为是古代文明衰落的关键因素,也可能对现代组织产生决定性影响。AI 系统基于概率和预期效益做出决策,而不是基于自尊或害怕看起来愚蠢。它们不会因为情感上的投入而坚持失败的策略,也不会忽视地位较低的团队成员提出的有潜力的想法。
灵长类大脑并不适合公司管理“人不是理性的动物,而是爱找借口的动物。” (——罗伯特·A·海因莱因,描述了每个曾经为失败策略辩护的管理者)
人类管理之所以存在根本性的生物学缺陷,原因在于我们的大脑进化是为了管理小部落,而不是复杂的公司层级结构。罗宾·邓巴关于“社交大脑理论”的研究显示,我们的大脑只能维持大约150个稳定关系——他称之为一个“群组”。然而,现代管理者经常试图管理远远超过这一生物限制的组织。
这种生物学上的限制表现为“邓巴数字”——大约150左右——这代表了一个人能够同时维持的最大社交关系数。在不同领域和文化的自然形成的群体中,这一限制始终能观察到,无论是部落还是军事单位。
# 生物限制对管理能力的分析
def analyze_primate_management_limitations():
"""
探讨人类大脑进化如何限制管理效率
"""
management_levels = {
"team_management": {
"typical_size": 5-9,
"evolutionary_equivalent": "核心家庭群体",
"effectiveness": "高 - 在人类认知范围内",
"notes": "适合直接管理的最佳规模"
},
"department_management": {
"typical_size": 20-50,
"evolutionary_equivalent": "狩猎采集部落群体",
"effectiveness": "中等 - 虽紧张但仍可通过结构维持",
"notes": "需要正式流程来保持效率"
},
"division_management": {
"typical_size": 100-500,
"evolutionary_equivalent": "氏族/村庄(超过邓巴数)",
"effectiveness": "低 - 超出自然认知极限",
"notes": "依赖于大量的抽象和简化"
},
"corporate_management": {
"typical_size": 1000+,
"evolutionary_equivalent": "无 - 超出祖先经验",
"effectiveness": "非常低 - 根本上与大脑容量不匹配",
"notes": "被迫依赖扭曲现实的指标"
}
}
dunbar_cognitive_limits = {
"intimate_friends": 5, # 亲密支持群体
"good_friends": 15, # 同情心群体
"friends": 50, # 定期社交联系
"meaningful_contacts": 150, # 邓巴数(约150人)
"recognizable_individuals": 500, # 最大可识别社区
"faces_can_recognize": 1500 # 最大面部识别能力
}
return {
"management_levels": management_levels,
"cognitive_limits": dunbar_cognitive_limits,
"conclusion": "结论是:人类试图管理超过约150人的组织时,正在超出进化认知能力"
}
这种生物学限制意味着,在组织规模超过一定大小后,管理者越来越依赖抽象的指标和简化的经验法则,而这不可避免地扭曲现实。我们的大脑进化尚未准备好应对复杂的组织管理,因为灵长类动物的社会性是在较小且较为稳定的群体中进化而来的,在这样的群体中,个体之间形成了稳定的关系网络。
AI不受这些进化限制的影响,可以同时处理数千乃至数百万实体间的关系。它不需要简化复杂的现实以方便认知,而这正是人类管理者往往不得不做的——常常以牺牲准确性和有效性为代价。
创新编程:人类依然占据主导地位“任何人都能写出计算机能理解的代码。优秀的程序员写出的代码人类能理解。” — 马丁·福尔,强调了这一点是人工智能难以模仿的编程中的人文因素。
虽然管理工作大多是可预测的模式识别,但创意编程则需要在新颖的环境中真正解决新问题。
# 比较管理任务和编程任务的复杂度
def compare_task_complexity():
programming_tasks = {
"algorithm_optimization": {
"description": "创建更高效的处理方法",
"pattern_based": False,
"creative_problem_solving": True,
"context_dependent": True,
"ai_replaceable": 0.35,
"managerial_comprehension": 0.15 # 百分比的经理能够理解这项工作
},
"system_architecture": {
"description": "设计技术基础设施",
"pattern_based": False,
"creative_problem_solving": True,
"context_dependent": True,
"ai_replaceable": 0.30,
"managerial_comprehension": 0.10
},
"novel_feature_development": {
"description": "创建尚未存在的解决方案",
"pattern_based": False,
"creative_problem_solving": True,
"context_dependent": True,
"ai_replaceable": 0.25,
"managerial_comprehension": 0.20
}
}
management_tasks = {
"quarterly_planning": {
"description": "制定下一季度目标,相比上一季度增长10%",
"pattern_based": True,
"creative_problem_solving": False,
"context_dependent": True,
"ai_replaceable": 0.90,
"programmer_comprehension": 0.95 # 百分比的程序员能够理解这项工作
},
"performance_reviews": {
"description": "对团队成员进行基于任意标准的绩效评估",
"pattern_based": True,
"creative_problem_solving": False,
"context_dependent": True,
"ai_replaceable": 0.85,
"programmer_comprehension": 0.99
},
"status_reporting": {
"description": "将团队的工作转化为高层管理人员能理解的形式",
"pattern_based": True,
"creative_problem_solving": False,
"context_dependent": True,
"ai_replaceable": 0.95,
"programmer_comprehension": 1.0
}
}
# 计算平均可替代性
avg_programming = sum(task["ai_replaceable"] for task in programming_tasks.values()) / len(programming_tasks)
avg_management = sum(task["ai_replaceable"] for task in management_tasks.values()) / len(management_tasks)
# 计算理解不对称
avg_manager_understanding_code = sum(task["managerial_comprehension"] for task in programming_tasks.values()) / len(programming_tasks)
avg_programmer_understanding_management = sum(task["programmer_comprehension"] for task in management_tasks.values()) / len(management_tasks)
return {
"programming_replaceability": avg_programming,
"management_replaceability": avg_management,
"replacement_ratio": avg_management / avg_programming,
"comprehension_asymmetry": {
"managers_understanding_programming": avg_manager_understanding_code,
"programmers_understanding_management": avg_programmer_understanding_management,
},
"conclusion": f"管理任务被 AI 替代的可能性大约是编程任务的 {avg_management/avg_programming:.1f} 倍,然而经理仅理解编程任务 {avg_manager_understanding_code*100:.1f}%,而程序员几乎完全理解管理任务 {avg_programmer_understanding_management*100:.1f}%"
}
复杂的编程远不止是给模型输入指令;它包括理解错综复杂系统,识别那些不易察觉的互动,并预见未来的需求。这需要对用户有同理心,对人类行为的深刻理解,以及为模糊定义的问题提供优雅的解决方案。这些正是当前人工智能最难应对的挑战。
当科技高管声称AI将取代程序员时,他们只在考虑最常规的编码任务——而不是构成真正有价值的工程工作的一部分,即创造性的解决问题。这当中有着一种非常有趣的讽刺意味。程序员通常非常了解管理工作的内容,而反过来,很少有管理者真正理解编程。
穿专业知识的皇帝没穿衣服“预测未来的最好办法就是发布新闻稿。” — 这是对艾伦·凯那句著名名言的改写,更贴近高管的预测方式。
让我们聊聊管理者常说的“行业知识”和“业务情况”这一观点。
# 分析“领域知识”参数
def analyze_domain_knowledge():
"""
检查不可替代的“领域知识”的实质
"""
domain_knowledge_components = {
"industry_trends": {
"description": "理解市场方向",
"actual_source": "阅读与其他人一样的行业报告",
"ai_replaceable": 0.95,
"notes": "AI能分析比人类多得多的市场数据"
},
"competitive_landscape": {
"description": "了解竞争对手的优势和劣势",
"actual_source": "公共财务报表和新闻稿",
"ai_replaceable": 0.90,
"notes": "AI可以保持全面和客观的竞争对手档案"
},
"customer_insights": {
"description": "了解客户想要什么",
"actual_source": "偶尔挑选的焦点小组讨论",
"ai_replaceable": 0.85,
"notes": "AI可以分析所有客户互动和反馈"
},
"office_politics": {
"description": "处理人际关系",
"actual_source": "带有电子表格的部落行为",
"ai_replaceable": 0.70,
"notes": "更像是组织中的一个缺陷而非功能"
},
"tribal_signaling": {
"description": "使用正确的流行词和方法论",
"actual_source": "跟随管理潮流和咨询建议",
"ai_replaceable": 0.95,
"notes": "AI擅长匹配沟通风格"
}
}
# 计算实际上可替代的部分
total_components = len(domain_knowledge_components)
replaceable_score = sum(component["ai_replaceable"] for component in domain_knowledge_components.values()) / total_components
return {
"components": domain_knowledge_components,
"overall_replaceability": replaceable_score,
"conclusion": f"大约{replaceable_score*100:.1f}%的'领域知识'可以被AI系统取代"
}
所谓的“专业知识”很多时候只是能够获取行业信息和识别行业内的社交信号。AI系统可以处理和分析远远超出任何人类经理所能处理的行业数据量。更重要的是,它们不会像人类那样因为偏见而过度重视某些信息。
说到管理中所谓的“人脉技巧”,坦白说——许多管理者在这方面充其量只是一般。能够察觉团队成员有困难、激励而不操纵、以及营造心理安全的氛围这些能力,在人类管理者中都算是罕见的才能。大多数管理者依赖的是可以编写的程序化互动方式。
AI管理:已经以不同的名目在进行“撒旦玩过的最狡猾的把戏,就是让人们相信它不存在。” — 就像波德莱尔所说,人工智能已经悄悄取代了管理职能,而没有人称之为 “AI管理”。
当科技公司的高管们预测编程工作可能消失时,人工智能已经在悄悄改变管理工作。
- “数据驱动的资源分配”(AI决定谁来做哪些任务)
- “性能优化系统”(AI监控工作效率)
- “战略推荐引擎”(AI提供战略建议)
- “通信自动化”(AI帮你写给经理的邮件)
- “预测性劳动力规划”(AI决定何时招聘或解雇员工)
这些所谓的AI系统并不是被标榜为“AI经理”,但它们正在逐步削弱人类管理层的决策权。中层管理者现在不再作出判断,而是执行所谓的“决策支持系统”的建议。
与此同时,那些为编程岗位消失而欢呼的中层主管却没注意到他们是在为自己敲响丧钟。
不被人工智能取代的人类元素(无论好坏)“有人说委员会就像是用四条后腿走路的动物。” ——约翰·勒卡雷,形容这种责任分散的管理怪现象。
公平地说,确实有一些人类的特点是AI难以复制的,但这些方面的商业价值却并不明显。
- 个人的自尊心和野心驱使的决策(往往对公司不利)
- 办公室政治和派系关系(对组织生产力的税收)
- 能事后为凭直觉做出的决定找到合理的理由
- 自信满满地做出灾难性的错误决定
- 在正式场合无意中制造出病毒式的搞笑时刻
虽然这些人性的小缺点让职场戏剧和社会媒体时刻变得有趣,但这些缺点绝不是高效组织的基础。也不会有AI在公共场合盯着同事看不合适的目光,也不会在用户避开的情况下花几十亿美元投资于一个元宇宙世界。
倒计时:12到18个月的AI管理时代
“未来的工厂里将只有两个人,一个人和一条狗。这个人会在那里喂狗。这条狗会在那里防止有人碰设备。” — 沃伦·本尼斯,无意中描述了未来管理的样子。
想一下,在科技公司的高管预测程序员将不再需要的同样时间内,用人工智能取代中层管理人员需要什么。
# 实施AI管理的时间表
def ai_management_timeline():
"""
在12-18个月内实施AI管理所需步骤
"""
实施阶段 = [
{
"时间范围": "第1-3个月",
"技术要求": "公司在各个系统间的数据集成",
"组织变革": "实施全面的指标体系",
"完成难度": "中等",
"潜在阻力": "中层管理人员的阻力高,工程师的阻力低"
},
{
"时间范围": "第4-6个月",
"技术要求": "基于历史决策的机器学习模型",
"组织变革": "测试AI推荐与人类经理的结合",
"完成难度": "中等",
"潜在阻力": "中层管理人员在意识到影响后可能会有非常高的阻力"
},
{
"时间范围": "第7-9个月",
"技术要求": "具备解释能力的AI管理系统",
"组织变革": "逐步将决策权转移到AI管理系统",
"完成难度": "中至高",
"潜在阻力": "中层管理人员的阻力极强,工程师的好奇心温和且好奇"
},
{
"时间范围": "第10-12个月",
"技术要求": "完全自动化的决策",
"组织变革": "减少管理层级的组织结构调整",
"完成难度": "高",
"潜在阻力": "中层管理人员的阻力是末日般的,工程师则保持谨慎乐观"
},
{
"时间范围": "第13-18个月",
"技术要求": "处理例外情况及新情况的AI管理系统",
"组织变革": "最终过渡,仅作为审查角色",
"完成难度": "非常高",
"潜在阻力": "剩余管理人员的革命性抗拒,工程师则抱着看热闹的心态"
}
]
return {
"时间表": 实施阶段,
"技术可行性": "高(适用于常规管理),中等(适用于复杂情况)",
"组织挑战": "主要阻力来自管理人员而非技术限制",
"结论": "在技术上,18个月内实现AI管理是可行的,但组织变革将是主要限制因素"
}
与取代创造性编程相比,AI管理的技术门槛更低。阻碍并非来自技术层面,而是来自那些面临被取代风险的管理层的抵制。也许这解释了为什么技术高管们更容易预测程序员会被取代,而不是承认自己可能已经过时。
高薪程序员:财务对比“某样东西的成本是指为了得到它所付出的生命,这种付出可能是马上的,也可能是长期的。” —— 亨利·戴维·梭罗,无意间描述了公司的预算过程。
激发人们用AI取代程序员热情的一个持久神话是开发者是“昂贵的”这种看法。这种说法经常被高管和中层管理人员传播,然而,令人讽刺的是,这些管理人员本身的成本更高,无论是直接成本还是间接成本。
咱们来做些简单的数学题吧
# 分析经理与程序员的真实成本
def compare_total_organizational_costs():
"""
计算并比较技术岗位与管理岗位的全部成本
"""
# 直接薪酬成本
direct_costs = {
"senior_engineer": {
"base_salary": 150000,
"bonus": 20000,
"benefits": 45000,
"total_direct": 215000
},
"middle_manager": {
"base_salary": 175000,
"bonus": 50000,
"benefits": 60000,
"total_direct": 285000
},
"executive": {
"base_salary": 400000,
"bonus": 300000,
"benefits": 150000,
"stock_options": 1500000,
"total_direct": 2350000
}
}
# 间接成本 - 真正的差异因素
indirect_costs = {
"senior_engineer": {
"workspace": 15000,
"administrative_support": 5000,
"unsuccessful_projects": 50000, # 工程师的失误通常影响较小的项目
"total_indirect": 70000
},
"middle_manager": {
"workspace": 25000,
"administrative_support": 20000,
"unsuccessful_projects": 750000, # 管理不当的决策会影响整个团队
"total_indirect": 795000
},
"executive": {
"workspace": 100000,
"administrative_support": 150000,
"private_jet_usage": 500000,
"unsuccessful_strategic_decisions": 50000000, # 战略失误可能导致数十亿的损失
"total_indirect": 50750000
}
}
# 计算总成本
for role in direct_costs:
direct_costs[role]["total_cost"] = direct_costs[role]["total_direct"] + indirect_costs[role]["total_indirect"]
# 计算工程师的成本效益(每花费一美元产生的效益)
cost_effectiveness = {
"senior_engineer": 1.0, # 作为比较基准
"middle_manager": 0.08, # 每花费一美元产生的效益仅为工程师的1/12
"executive": 0.02 # 每花费一美元产生的效益仅为工程师的1/50
}
return {
"direct_costs": direct_costs,
"indirect_costs": indirect_costs,
"cost_effectiveness_ratio": cost_effectiveness,
"conclusion": "考虑到整个组织的影响,工程师比管理者更具有成本效益"
}
这些数字并非(并非完全虚构的)——它们反映了这样一种现实:虽然工程师的直接薪酬虽然很高,但是糟糕的管理决策造成的损失要大得多。
下面来看几个实际的例子:
- Meta的元宇宙豪赌:扎克伯格决定将公司押在元宇宙上,截至2024年,仅开发费用就让股东损失了大约500亿美金。历史上没有任何一个编程错误曾经摧毁过如此巨大的价值。一位高管追逐一个 “愿景” 的生物本能驱使,已经耗资超过了Meta为所有程序员支付的薪酬总和。
- 波音的管理文化:从工程导向文化转变为管理主导文化,最终导致了737 MAX的灾难及后续危机。优先考虑金融工程而非实际工程的决策让波音损失了超过250亿美金,更为悲惨的是,还夺走了人的生命。没有任何编程错误能够造成如此大规模的灾难。
- 失败的IT项目:研究表明,大型IT项目的失败通常并不是因为技术限制或编程错误。它们失败是因为需求收集不当、范围蔓延、不合理的时间表和风险控制不足——所有这些都是管理失误。
为花在一名称职工程师身上的每一美元,组织通常能获得数倍的收益。而一个糟糕的管理决策则可能抵消数百名工程师多年努力的成果。当 Facebook 在 2014 年以 190 亿美元的价格收购了 WhatsApp 时,这相当于大约 120,000 名工程师年的努力被浪费了。
最昂贵的代码不是程序员写的,而是管理者在 PowerPoint 演示文稿中做出战略 “愿景” 决定时写的,他们对技术细节不够了解。
如果我们真的在乎成本优化,用人工智能替代管理者将比用AI替代程序员带来的节省多得多,这种节省是呈指数级增长的——不仅在直接薪酬上,而且更重要的是避免由于人性的限制所导致的灾难性商业决策。
要结尾了:讽刺但愉快的结尾:向人工智能管理迈进“乐观主义者宣称我们生活在所有可能的世界中最好的一个;而悲观主义者则害怕这或许是事实。” — 詹姆斯·布兰奇·卡贝尔,完美地体现了我们当前和科技之间的关系。
亲爱的读者,好消息是,虽然管理层可能即将被淘汰,但人类自身将迎来一次精彩的进化。如果我们能在接下来的12至18个月内用算法来代替扎克伯格(考虑到他自己计划用算法替代程序员的时间表,这似乎完全可行),又何必止步于此呢?
下一步的合乎逻辑的步骤是用专为理性治理设计的AI系统来取代我们的政客。想想这些可能性!一个摆脱腐败、裙带关系和认知偏差影响的治理系统。不再做出讨好捐赠者或取悦选民的决定——只需专注于为大众利益优化政策。
# 假设的人工智能治理结果
def simulate_ai_governance_improvements():
"""
项目人工智能治理系统可能带来的改进
"""
治理指标 = {
"腐败指数": {
"当前人类评分": 0.65, # 数值越高越差
"预计AI评分": 0.05,
"改进幅度": "减少了13倍"
},
"政策一致性": {
"当前人类评分": 0.30, # 数值越高越好
"预计AI评分": 0.95,
"改进幅度": "提高了3.2倍"
},
"基于证据的决策": {
"当前人类评分": 0.25, # 数值越高越好
"预计AI评分": 0.90,
"改进幅度": "提高了3.6倍"
},
"长期规划": {
"当前人类评分": 0.15, # 数值越高越好
"预计AI评分": 0.85,
"改进幅度": "提高了5.7倍"
},
"应对危机的时间": {
"当前人类评分": 0.40, # 数值越高越好
"预计AI评分": 0.95,
"改进幅度": "提高了2.4倍"
}
}
# 计算总体改进幅度
人类平均表现 = sum([指标["当前人类评分"] if "提高" in 指标["改进幅度"] else 1 - 指标["当前人类评分"]
for 指标 in 治理指标.values()]) / len(治理指标)
AI的平均表现 = sum([指标["预计AI评分"] if "提高" in 指标["改进幅度"] else 1 - 指标["预计AI评分"]
for 指标 in 治理指标.values()]) / len(治理指标)
总体改进倍数 = AI的平均表现 / 人类平均表现 if 人类平均表现 > 0 else float('inf')
return {
"指标": 治理指标,
"人类平均表现": 人类平均表现,
"AI的平均表现": AI的平均表现,
"总体改进倍数": 总体改进倍数,
"结论": f"AI治理可能使总体社会结果改善大约{总体改进倍数:.1f}倍数"
}
一旦我们用算法驱动的决策系统取代了人类(即政府官员),国会两院的平均智商可能会大幅提高。不再有部落主义信号传递,不再有迎合低级欲望,不再有打着意识形态旗号的领地争斗——只有为了共同利益的理性问题解决。
当然,实施这样的系统将需要克服那些目前掌权者的强烈抵制。这些掌权者往往会抵制自己的过时,无论是企业董事会还是立法机关。他们会声称 “人类的判断力” 和 “个人经历” 是不可替代的,就像管理者会强调他们的 “专业知识” 是不可或缺的——直到AI系统表现得更出色。
但我们可以在人工智能迅速渗透到其他领域中找到安慰。如果扎克伯格说得对,编程工作可能在12至18个月内被自动化,那么管理职位能落后多久呢?如果管理职位也被自动化了,政治又能否长期抵抗呢?
请不要担心,亲爱的朋友,当我们从受生物限制的时代过渡到算法理性的时代。一开始这可能会让你觉得难以接受,但请记住,我们只是在用一种管理模式替换另一种管理模式——用那些由原始冲动、认知偏差和部落本能驱动的系统,换取那些旨在实现最佳效果的系统。
未来充满希望。未来合情合理。未来不会在就职典礼上盯着同事,也不会在虚拟现实的华而不实项目上浪费数十亿资金。总的来说,未来将摆脱自我们从树上爬下来以来一直困扰人类组织发展的所有那些复杂的生物需求。
如果你是正在读这篇文章的现任经理,你可能想要开始提高你的创意编程技能。听说那些工作以后会更难被自动化了。
免责声明:在写这篇文章时,我在这里声明,没有任何生物部门的管理者受到伤害、虐待或被迫在午夜之后更新他们的表格。提及的所有经理都得到了人道的待遇,有足够的休息时间和合理的工作期限。
说到扎克伯格这个人,我必须同意他代表了一种独一无二的存在,即使人工智能试图取代他,真人扎克伯格提供的娱乐价值也远远更胜一筹。他那机器人似的举止、尴尬的国会听证会表现以及莫名其妙喜欢烤肉这些特质,是机器人无法模仿的。有些事情真是太奇妙而古怪,根本无法有效模拟。
扎克伯格的元宇宙冒险和防晒霜冲浪趣事将在科技高管的奇闻异事中无出其右。有时候,现实中的事情比我们能编写的任何故事都要有趣得多。
共同學(xué)習(xí),寫下你的評論
評論加載中...
作者其他優(yōu)質(zhì)文章