本文作者:访客

英伟达盘中“闪崩”近6%:美国监管机构将展开反垄断调查,耶伦发出警告

访客 2024-06-07 14395 抢沙发

6月6日美股,英伟达收跌1.18%,报1209.98美元,收盘市值回落至2.9765万亿美元。该股股价早盘“闪崩”,一度较盘初所创的盘中纪录高位回落近6%。

值得注意的是,6月6日盘后仍持有英伟达股票的投资者,将在6月7日收盘后获得9股额外股票,股价也将作出调整以反映分拆。6月10日(下周一),英伟达开始以调整后的价格交易。

英伟达在历史上曾多次拆股。其中2000年、2001年和2006年都是按2:1的比例拆分股票。2007年,英伟达曾以3:2的比例进行拆股。

不过,从历史数据来看,拆股并非股价上涨的催化剂。美股近年来240次拆股案例显示,这些股票在拆股后两周内平均涨幅只有0.44%,不到一半的案例跑赢了标普500指数。六个月内这些股票的平均收益率为6.6%,仅略高于同期标普500指数的5.4%。

但英伟达的历史数据,则要漂亮得多。2021年拆股后,英伟达曾在6个月内曾上涨近40%,上次拆分至今,英伟达股价已上涨超过500%。

苹果(AAPL)收跌0.71%,报194.48美元,收盘市值2.9821万亿美元。

微软(MSFT)收涨0.12%,报424.52美元,收盘市值3.1551万亿美元。

Meta收跌0.26%,谷歌A涨0.78%,特斯拉涨1.65%,亚马逊涨2.02%连续四个交易日反弹本周已累涨4.82%。

此外,台积电ADR收跌0.52%,也脱离收盘历史最高位,但美股盘初涨至164.70美元继续创盘中历史新高;伯克希尔哈撒韦B类股涨0.3%,AMD涨0.36%,礼来制药涨0.66%时隔一个交易日再创收盘历史新高。

美国监管机构将对英伟达、微软和OpenAI展开反垄断调查

当地时间6月6日消息,美国联邦贸易委员会(FTC)和司法部将对微软、OpenAI和英伟达展开反垄断调查,审查这些强大公司在人工智能行业的影响力,一位熟悉情况的人士向CNBC确认了这一点。

FTC将主导对微软和OpenAI的调查,而司法部将专注于英伟达,调查将集中在公司的行为上,而不是并购活动,据消息人士称。

《纽约时报》首先报道了这项调查。

随着像OpenAI和Anthropic这样的初创公司——分别是ChatGPT和Claude聊天机器人背后的公司——在生成式AI市场上获得动力,谷歌、微软、亚马逊和Meta等科技巨头一直在进行一场AI军备竞赛,竞相整合这项技术,以确保他们不会在这个预计在十年内收入将超过1万亿美元的市场中落后。

例如,微软在2019年首次向OpenAI投资了10亿美元。自那以后,其投资规模已膨胀至约130亿美元。微软在其Copilot聊天机器人中大量使用OpenAI的模型,并在其Azure云上提供开源模型。

巨额投资是必要的,因为AI模型的构建和训练众所周知地昂贵,需要数千个专业芯片,到目前为止,这些芯片主要来自英伟达。Meta正在开发自己的名为Llama的模型,表示它正在花费数十亿美元购买英伟达的图形处理单元,这是帮助这家芯片制造商年收入增长超过250%的众多公司之一。

即将进行的反垄断调查的消息是在一群现任和前任OpenAI员工周二发表公开信几天后传来的,他们表达了对AI行业快速发展的担忧,尽管缺乏监督,也没有为那些愿意发声的人提供举报者保护。

“AI公司有强烈的财务动机避免有效的监督,我们不认为定制的公司治理结构足以改变这一点,”员工们写道,并补充说,公司“目前只有微弱的义务与政府分享这些信息的一部分,与民间社会没有任何义务。我们不认为他们都能被信赖自愿分享。”

OpenAI没有回应置评请求。微软和英伟达拒绝置评。

美财长耶伦警告:金融行业广泛应用AI带来潜在“重大风险”

当地时间6月6日,美国财政部长耶伦出席了金融稳定监督委员会(FSOC)有关人工智能与金融稳定的会议,并在开幕致辞中警告金融机构使用人工智能技术的潜在风险。

有分析称,这是耶伦迄今为止对人工智能作出的最广泛评论。据一位美国财政部官员向媒体透露,耶伦本人也尝试用过人工智能聊天机器人。

耶伦在演讲中透露,人工智能与金融稳定是拜登政府高度重视的话题,“在未来几年只会变得更加重要”。金融公司使用人工智能带来的“巨大机遇和重大风险”已成为美国财政部和金融稳定监督委员会的首要议题。

耶伦承认,人工智能为金融系统提供了巨大机遇,例如通过AI的预测能力进行投资组合管理,利用AI检测异常的能力来打击欺诈和非法融资,客服也开始实现自动化。在最新的发展中,自然语言处理、图像识别和生成式人工智能有助于金融服务成本更低和更易于获取:

“我们看到,如果使用得当,人工智能可以提高效率、准确性和金融产品的可及性。”

但她同时警告称,金融机构使用AI在促进机遇的同时伴随着“重大风险”(significant risks):

“特定的脆弱性可能源于人工智能模型的复杂性和不透明性,风险管理框架不足以应对人工智能风险,以及由于许多市场参与者依赖相同的数据和模型而出现的相互关联特征。

开发模型、提供数据和云服务的供应商集中度过高,也可能会加剧现有的第三方服务提供商风险。数据不足或有缺陷则可能延续现有的偏见或引入新的金融决策偏见。”

有分析指出,耶伦意在警告,如果许多投资者都依赖于产生相同结果的AI工具,这可能导致某些热门交易的仓位押注拥挤,从而加剧市场上行或下行的走势。

同时,如果只有少数几家公司有能力提供AI模型,一旦其中一家公司出现问题,许多金融机构可能受到波及。更别提AI模型有时会产生有偏差或者歧视性的结果,但耶伦没提AI系统产生错误答案的“幻觉”问题。

OpenAI、谷歌现任及前任员工联名警告:AI失控或导致人类灭绝

当地时间4日,13位来自OpenAI和Google的现任及前任员工联合发布了一封公开信,引发广泛关注。这些员工在信中表达了对人工智能技术潜在风险的严重担忧,并呼吁相关公司采取更加透明和负责任的措施来应对这些风险。

这封公开信由多位知名人士联名背书,包括被誉为“人工智能教父”的杰弗里•辛顿、因开创性AI研究获得图灵奖的约书亚•本吉奥以及AI安全领域的学者斯图尔特•罗素。

图片来源:Right To Warn AI

信中指出,尽管人工智能技术可能会给人类带来巨大益处,但其带来的风险同样不容忽视。这些风险包括加剧社会不平等、操纵和虚假信息传播,以及自主AI系统失控可能导致的人类灭绝。信中强调,这些风险不仅得到了人工智能公司本身的确认,也得到了世界各国政府和其他AI专家的认可。

公开信签署者们表示,他们希望在科学界、政策制定者和公众的指导下,能够充分缓解这些风险。然而,他们担心,人工智能公司由于强烈的经济动机,可能会避免接受有效的监督。他们认为,仅靠现有的公司治理结构不足以解决这一问题。

信中还提到,人工智能公司掌握着大量关于其系统能力和局限性、保护措施的充分性以及各种风险水平的非公开信息。然而,这些公司目前对与政府分享信息的义务很弱,且完全没有义务与公众分享。签署者们认为,不能完全依赖这些公司自愿分享信息。

信中提到,由于严格的保密协议,员工们在表达对AI风险的担忧时,面临着种种限制。而目前对于举报人的保护措施尚存在不足,一些员工担心因提出批评而遭受报复。

联名信呼吁人工智能公司承诺员工对公司提出风险相关的批评时,不对其进行打击报复,建立匿名举报机制,支持开放批评的文化,并保护员工公开分享风险相关信息的权利。

图片来源:X

OpenAI前员工丹尼尔•科泰洛 (Daniel Kokotajlo)是此次联名信公开署名人员中的一位。他在社交平台上连发15条消息表示:“我们中一些最近从OpenAI辞职的人聚集在一起,要求实验室对透明度作出更广泛的承诺。”

丹尼尔提到,他今年四月辞职,是因为对该公司在构建通用人工智能方面是否会采取负责任的行为失去了信心。他指出,尽管他希望公司在AI功能越来越强大的同时,能在安全研究方面投入更多资金,但OpenAI并未做出相应调整,导致多名员工相继辞职。

他强调,OpenAI等实验室构建的系统有能力给人类社会带来巨大的好处,但如果不谨慎处理,长期来看,可能是灾难性的。他还提到,当前AI技术几乎未收监管,主要是公司在进行自我监管,而这种方式存在巨大的风险。

丹尼尔透露,离职时他被要求签署一份“封口协议”,其中包含一项不贬损条款,禁止他发表任何批评公司的话,否则将失去已归属的股权。然而,他在深思熟虑后,依旧决定放弃签署协议。

图片来源:Dwarkesh Podcast

此外,6月4日,OpenAI前超级对齐部门成员利奥波德•阿申布伦纳(Leopold Aschenbrenner)也在播客节目Dwarkesh Podcast中透露他被开除的真实原因:他给几位董事会成员分享了一份OpenAI安全备忘录,结果导致OpenAI管理层不满。

利奥波德在社交平台表示,到2027年实现AGI是极其有可能的,需要更严格的监管和更透明的机制,确保人工智能的安全发展。

(每日经济新闻综合公开资料)

免责声明:本文内容与数据仅供参考,不构成投资建议,使用前请核实。据此操作,风险自担。

阅读
分享

发表评论

快捷回复:

评论列表 (暂无评论,14395人围观)参与讨论

还没有评论,来说两句吧...