资料图:日本首相岸田文雄。
岸田访美,旨在“抗衡中国”?
岸田文雄从9日起开始欧美五国访问。美国,无疑是最为重要的一站。
连日来,日媒频频“放风”,称拜登回应日方请求、决定与岸田举行会谈,是因为“与中国的竞争成为最优先课题”。
日美外长、防长也于11日在华盛顿开会预热。日本共同社称,日美高级官员同意中国对“印太地区构成最大的战略挑战”,宣称要加强威慑,将两国安全条约的范围扩大到太空。
在日美首脑会谈中,两国还可能聚焦哪些议题?
据多家日媒消息,拜登与岸田将讨论俄乌局势、气候变化以及经济问题。岸田还将介绍在新版《国家安全保障战略》中提出的彻底强化防卫力和大幅增加防卫费。
消息人士透露,双方拟就加强核能发电和液化天然气(LNG)等能源领域合作达成共识;为“抗衡中国”,在包括半导体、人工智能(AI)、量子等尖端技术在内的经济安保领域扩大合作。
会谈后,双方预计将发表以安全保障为中心的联合声明,强调推动“自由开放的印太地区”的重要性,并再次确认《日美安全保障条约》第五条适用于所谓的“尖阁诸岛”(即中国钓鱼岛及其附属岛屿——记者注)。
中国社会科学院日本研究所研究员吕耀东认为,日本将借首相岸田此访进一步渲染“中国威胁”。从炒作南海问题,到宣称乌克兰危机可能会在东亚发生,如何应对这些所谓的“地区威胁论”,或将是此次会谈的主要内容。
资料图:停泊在日本横须贺美军基地的美国“里根号”核动力航母。日本想要“成为矛的一部分”
近段时间以来,日本野心外露,不满足于过去自卫队作“盾”、美军作“矛”的分工,也想“成为矛的一部分”。
2022年底,日本政府正式通过三份重磅安保政策文件。其中,新版《国家安全保障战略》宣称,日本应拥有“反击能力”,即“对敌基地攻击能力”。
日本政府2022年底还通过了2023财年政府预算草案,防卫预算达68219亿日元。其中,购买美制“战斧”巡航导弹预算为2113亿日元,获取远程攻击性导弹及相关预算高达1.4万亿日元。
吕耀东表示,值得注意的是,继美国发布“国家安全战略”后,日本也敲定了三份安保政策文件。也就是说,“过去日本的安全由美国来保护,而现在日本也要保护其盟国美国,因此其自称需要攻击性武器。”
外交学院国际关系研究所教授周永生还指出,“日本拥有‘反击能力’后,等于过去所说的‘专守防卫’政策被抛弃,和平宪法也被架空,出现了和战后自我约束的军事战略完全不同的、没有任何约束的军事战略。”
日本在军事“松绑”的路上越走越远,引发多方担忧和反对。
从东京首相官邸门前到广岛市内,日本民众发起抗议行动,高呼“不准增加军费” “反对大增军备和大增税”,抨击三份安保政策文件是违反宪法的“暴行”。
还有日本民众直言,“日本政府增加军费投入,这肯定威胁到我们的生存。这是绝对不应该做的政治行为。”
近日,韩国外交部负责人重申政府既定立场,即日本的国防国安政策要“朝着有利于地区和平稳定、坚持和平宪法精神的方向,公开透明地运行”。
中国外交部发言人汪文斌日前也强调,中方再次敦促日方恪守中日四个政治文件各项原则,切实将“互为合作伙伴、互不构成威胁”这一政治共识体现到政策上,落实到行动中,尊重亚洲邻国的安全关切,在军事安全领域谨言慎行。
1月11日,华盛顿,日本防卫大臣滨田靖一(左)与美国国务卿布林肯(右)握手。岸田为何此时对美“投怀送抱”?
就在岸田政府向美国“投怀送抱”之际,其国内执政却危机四伏。
2022年底,日本内阁陷入“辞职多米诺”,多名成员因政治资金使用等问题相继辞职。岸田本人也被曝政治资金收支报告中有近百张“空白发票”,引发争议。自民党一些要扳倒岸田势力的反对派,还在利用他提出的“通过增税支撑防卫费”问题施压。
丑闻不断,岸田内阁支持率持续走低。自1月7日起为期3天的舆论调查结果显示,岸田内阁的支持率仅为33%。另一项日本全国最新舆论调查则显示,46%的受访者认为岸田应在2023年上半年辞职。
在此情况下岸田为何要外访,就不难判断了,周永生指出,“过去一旦内政出现问题、支持率下降,安倍就会借用外交手段,岸田也学会了这招,想寻求美国支持,减少内部压力,同时通过此次访问取得外交成果,挽回低迷的支持率。”
但如今的日本物价高涨,经济数据表现疲软,民众叫苦不迭,岸田政府若不顾民众声音,执意制造分裂对抗,其谋算或许终难如愿。(完)
人工智能如何做到可信、可用?专家热议:把责任归结到个人****** 中新网北京12月11日电 人工智能治理的理想状态,是人工智能技术能做到可知、可信、可控、可用。而在现实中,人工智能技术手段虽然非常强大,但是离完美、完善仍有相当的距离。从技术角度和技术应用角度,人工智能的发展如何做到扬长避短? 近日,在2022人工智能合作与治理国际论坛上,专家围绕该话题进行了讨论。 中国工程院院士、鹏城实验室主任高文认为,现阶段很多技术还处于发展的过程中,如果过早地说这个不能用、那个不能用,可能会抑制技术本身的发展。但反过来,如果什么都不管,也不行。 “因此,现在更多还是从道德层面多进行引导。同时,做技术的人,也要尽量把一些可能的风险、抑制工具,即约束风险的工具,尽快想明白。自己也做,同时号召大家做,两者结合。”他说。 清华大学智能产业研究院国强教授、首席研究员聂再清认为,我们要保证能够创新,但同时不能让创新对我们的生活产生破坏性的影响,最好的办法就是把责任归结到个人。 “技术的背后是有人在控制的。这个人应该时刻保证工具或创新在危险可控的范围内。同时,社会也要进行集体的监督,发布某个产品或技术,要能够召回、撤销。在创新和监管之间,当然是需要平衡的,但归根结底,还是要把责任落实到个人身上。”他指出。 瑞莱智慧RealAI公司联合创始人、首席执行官田天补充道,在技术可解释性方面,需要去进行技术发展与相应应用场景的深度结合。大家需要一个更加可解释的AI模型,或者更加可解释的AI应用。 “但我们真正想落地的时候,会发现每个人想要的可解释性完全不一样。比如:模型层面的可解释,可能从研发人员角度觉得已经很好了,但是从用户的角度是看不懂的,这需要一些案例级的解释,甚至通过替代模型等方式进行解释。因此,在不同领域,需要不同的可解释能力,以及不同的可解释级别,这样才能让技术在应用场景发挥最好的作用。”他说。 将伦理准则嵌入到人工智能产品与系统研发设计中,现在是不是时候? 高文认为,人工智能软件、系统应该有召回的功能。如果社会或伦理委员会发现这样做不对,可能带来危害,要么召回,要么撤销。 高文说,应用的开发者,系统提交或者最终用户让他去调整的时候,他应该有责任。如果开发者发现已经踩线了,应该给他一个保护机制,他可以拒绝后面的支持和维护,甚至可以起诉。“不能只说哪一方不行,光说是开发者的责任,他可能觉得冤枉,因为他只提供工具,但有时候是有责任的,只是说责任怎么界定。” “在人工智能的发展过程中,一方面要建立一些红线。”田天建议,比如,对于人工智能的直接滥用,造假、个人隐私泄露,甚至关联到国家安全、生命安全的,这些领域一定要建立相关红线,相应的惩罚规定一定要非常清晰,这是保证人工智能不触犯人类利益的基本保障。 “在这个基础上,对于处于模糊地带的,希望能留有更多空间。不光是从限制角度,也可以从鼓励更加重视伦理的角度,促进合规地发展。”田天称。 2022人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴,联合国开发计划署(UNDP)、联合国教科文组织(UNESCO)等国际组织、国内外学术机构支持。(中新财经)
|