“谁能把握大数据、人工智能等新经济发展机遇,谁就把准了时代脉搏。”党的十八大以来,习近平总书记多次强调要加快推进新一代人工智能的发展。2017年7月,国务院发布《新一代人工智能发展规划》,描绘了面向2030年的我国人工智能发展路线图。
  2025年广西政府工作报告提出,实施数字新质生产力培育行动。落实“人工智能+”行动,立足广西、面向东盟,服务国家战略,前瞻布局人工智能基础设施,引导鼓励社会资本创新人工智能应用场景,发展智能终端产品。人工智能是新一轮科技革命和产业变革的重要驱动力量,广西不能缺席、不能落后。如何构筑人工智能先发优势,把握新一轮科技革命战略主动?广西积极谋划人工智能产业发展的策略、整合和场景,力争在人工智能产业发展中勇立潮头。

产业发展

更多+
科普知识 人才建设 智能问答 市场准入 政策兑现

编者按:“未来之问”系列报道,是新华网数字经济频道联合苇草智酷、中国科技新闻学会推出的年度深度观察专题。从科技、社会、经济等维度向时代提问,逾百位科学家、学者、企业家参与,聚焦技术发展带来的长期性、结构性社会议题,推动前沿思考与公共讨论。为这个急速变化的时代,安装一套“思想减震器”和“伦理导航仪”,让每一次技术飞跃,都不脱离人类价值的引力场。

合成生物学、细胞工厂与发酵平台等生物科技推动着材料、食品与医药等行业的低碳转型,并显著降低了设计与生产门槛。与此同时,双重用途、供应链溯源与云实验平台的安全边界变得模糊。如何通过分级准入、DNA 序列筛查、国际应急协作等机制,在释放创新潜力的同时防控误用与外溢风险,成为平衡效率与安全的关键。

未来之问 | 生物制造与生物安全:大规模生物制造会否在重塑制造业同时引入新型生物风险,开放创新与风险防控如何平衡?

段玉聪 丨 国际先进技术与工程院院士、美国国家人工智能科学院通讯院士

合成生物学所驱动的大规模生物制造为传统高排放行业的转型带来曙光:利用工程菌和细胞工厂,我们能以可再生原料生产出材料、燃料和药品,大幅降低碳足迹,也降低了生物“设计—生产”的门槛。

然而这枚硬币有两面。在生物制造重塑产业的同时,也引入了全新的生物风险:一方面,“双重用途”问题凸显——同样的基因编辑技术既能造福人类,也可能被不法分子用于制造生物武器;另一方面,云实验室、DNA合成服务等的兴起,让危险生物因子在全球范围内更易获取、传播途径更模糊,进而导致传统生物安全边界被打破。

在开放创新与风险防控之间取得平衡,关键是建立分级管控和协同治理机制。首先,对不同风险级别的生物研究和应用实行分级准入。高致病性病原体的研发生产应限定在经过认证的高级别生物安全实验室,研究人员资格审查和项目审批需更严格;而对普通的工业发酵项目则可适当放宽,鼓励创新。

其次,行业和监管机构应推行DNA序列筛查制度。从源头上看,全球主要DNA合成服务商已在实行订购序列监测,拦截可疑的致病病毒或毒素基因订单。这需要进一步完善技术手段,并使之成为行业标准,例如建立国际“序列黑名单”数据库,所有基因合成订单都与之比对,确保危险序列不轻易流出实验室。

第三,构建跨国的应急协作网络。生物风险不分国界,一旦发生合成生物误用造成疫情或环境事故,各国需要及时共享情报、协同处置。这包括建立统一的信息通报平台,提前演练跨国疫情联防联控预案,以及在紧急时刻由世界卫生组织等牵头调配资源遏制蔓延。快速透明的协作是防止风险外溢的关键。

第四,完善法律规范和伦理准则。为防范生物制造的滥用,各国应更新生物安全法律,将合成生物产品和数字生物平台纳入监管。国际层面可以在《禁止生物武器公约》框架下补充针对合成生物学的附加议定,把模糊地带纳入法治轨道。同时,由科学共同体牵头制订行业行为准则,倡导研究者遵守生物伦理和安全底线,例如发布研究前进行安全风险评估与同行审核等。

通过以上机制,我们期望实现“两手抓”——一手激发生物制造的创新潜能,推动高排放产业的绿色转型;另一手扎牢生物安全的笼子,防控潜在的误用和外溢风险。正如联合国教科文组织所强调的,在基因和生物技术治理中要紧急平衡开放共享与安全保障。只有建立起从实验室到产业链的全流程安全网,我们才能既享受生物制造的红利,又将新型生物风险降至最低,走出一条高效与安全并重的发展之路。

顾忠泽丨 东南大学首席教授,数字医学工程全国重点实验室主任。生物电子器件与纳米仿生材料专家,美国医学与生物工程院院士

大规模生物制造,尤其是器官芯片等前沿技术的兴起,正推动生物制造产业深刻变革,并深远影响人类生活与健康。该技术以细胞工厂和人工生命系统为基础,能够实现从化学品到个性化药物的高效、绿色生产,不仅加速药物研发、推动精准医疗,还可创造出传统技术无法制备的新型物质。

然而,这种强大能力也伴随着新型生物风险:工程生物体或器官芯片等复杂活体系统可能因意外泄漏或设计缺陷,对生态和健康带来难以预知的影响;同时,高度集成的生物数据与设计工具,也带来了数据滥用和生物安全防护的双重挑战。

在开放创新与风险防控之间寻求平衡,必须构建与之适应的动态治理体系:

第一,实行分级分类精准监管:依据生物产品及器官芯片等技术的复杂度和潜在风险,实施差异化的管控策略。

第二,推动技术赋能全程防控:借助数字化溯源、人工智能等手段,将安全保障嵌入技术研发全流程,确保生物系统与数据资源的双重安全。

第三,倡导全球协同与伦理先行:积极推动国际安全标准与伦理共识的形成,使开放合作能够在透明、负责的框架下展开。

最终目标是将生物安全内化为技术创新的基石,引导生物制造沿着安全可控的轨道前行,从而创造一个更高效、精准且可持续的未来。

邓 斌 丨 书享界创始人

首先,建立分级准入机制,对不同风险级别的生物制造技术进行分类管理,确保高风险技术的使用符合严格标准。其次,利用DNA序列筛查技术,对生物制造过程中的基因片段进行监控,防止危险基因的扩散,同时,加强机构间的合作与交流,制定统一的生物安全标准,并建立跨机构应急响应机制。但我认为更关键的是,要明确实验室技术和商用技术的边界,受众的知情权非常关键。

段伟文 丨 中国社科院文化发展促进中心研究员

我有四个方面的问题值得系统考量。一是合成生物学等生物制造领域要有一个风险认知框架和高风险地图。风险认知框架主要基于具体的生物制造研究过程和产物对人类的遗传、群体健康、自然生态环境有无深远影响。高风险地图或图谱的主要作用是动态风险信息共享及对未来风险的预见。

二是构建对生物制造方面的知识和材料获取的动态监测机制。特别是在有生物安全风险和双重用途的情况下,应利用人工智能对相关知识的搜索、相关材料的获得进行智能识别,通过专门的生物安全算法及时发现这些知识和材料组合的风险。必要时,对特定专家的相关认知和行为进行全景监控。

三是对于生命制造这一收益巨大但风险更大的领域应实施“慢科学”策略。在高风险领域,应明确设立禁区;在风险认识不清楚的情况下,应设立暂时的研究禁区。

四是在地缘政治冲突的情况下要强化生物制造中生物安全公约的谈判和国际监督。

胡延平 丨 上海财经大学特聘教授、智能科技产业与智能经济研究学者

生物领域的安全风险甚至可能大于人工智能的风险。智能科技与生物科技结合部的伦理与安全风险大于生物领域自身的风险。应该秉承安全第一、效率第二的原则,在全球范围内协调制定有效规则。

金建方 丨 世界生态社会科学协会会长

以 “分级准入+用途限定+可审计” 的生态协议释放创新、约束风险:实施 DNA 序列筛查与合成订单风控,云实验平台实名与留痕;对双重用途工艺设立红线清单与沙盒评审;建立跨境事件通报与应急演练网络。以生态绩效与风险积分决定补贴与额度,鼓励低碳替代、限制高风险外溢。

李玉杰 丨 二六三网络通信股份有限公司董事长兼总裁

大规模生物制造是一把威力巨大的“双刃剑”,它在带来产业变革的同时,也引入了新型生物风险。因此,必须实行更为严格的分级准入的机制,根据生物技术活动的潜在风险等级(如基于病原体危险等级、实验操作类型等)设定不同级别的研发准入许可、实验室安全防护标准和人员资质要求,对高风险研究实行最严格的管控。

刘业进 丨 首都经济贸易大学城市经济与公共管理学院的教授、博士生导师

由于生命的底层逻辑逐渐被揭示出来,人类全基因组测序已经完成,转基因技术已经用于种植和养殖实践,文化(科技)演化速度远远快于生物(基因)演化速度,因此目前全球生物安全可能遭遇重大威胁,有关科技伦理审查制度亟待建立和执行。

刘志毅 丨 中国人工智能领军科学家、上海市人工智能社会治理协同创新中心研究员

大规模生物制造在重塑制造业的同时必然引入新型生物风险。但AI技术能够构建 “预测-监测-干预” 的动态防控体系,实现开放创新与风险防控的技术层面权衡:AI通过深度学习挖掘生物序列与风险特征的隐性关联,构建覆盖合成生物设计、生产过程、环境释放全链条的风险预测模型。

在加速 “设计-构建-测试-学习” 循环的同时,实时筛查潜在有害生物分子设计与异常生产波动;这种权衡的核心在于AI驱动的 “创新效率与风险防控” 双目标优化,即通过生成式AI赋能生物制造的工艺创新与产品设计,同时将风险筛查算法嵌入设计源头与生产流程,形成 “创新输出-风险识别-实时反馈-迭代优化” 的闭环机制。既不因过度防控抑制技术创新活力,也不因开放创新放任生物安全风险。最终依托AI的数据分析与实时响应能力,将新型生物风险控制在可预见、可干预的范围内。

星 河 丨 知名科幻小说作家,中国作家协会科幻文学委员会委员,中国科普作家协会常务理事

由药品引发的生物制造、继而由仿生和克隆等技术造成的生物组织或器官的“生产”以及基因编辑直至整个人类胚胎的克隆,应该都属于这一范畴。

简而言之,一个基本原则就是:应该允许相关实验,并逐步放开实用。这就意味着,不应该以伦理原因予以限制。如上题所言,任何技术都不应等到百分之百安全了再进入使用,否则历史上很多医药技术早就胎死腹中了。

醒 客 丨 科技财经作家、轻组织创始人

从过往经验来看,物理、化学、社会管理、工业流程等领域,是以透明性、可解释性来提高安全性的;社会学、经济学虽然也给出了一些解释,但要么缺乏确定性的证据,要么缺乏足够的时间、清晰的预期来验证结果;医学、生物学在解释性上与社会学有相似性,难以给出足够的可解释性,但医学在验证性方面发展了循证的办法。

合成生物学、细胞工厂等技术的发展,在可说服性、可解释性、可验证性方面将面临更大的挑战,由于创新节奏过快,甚至循证的方法也都受到了挑战,需要综合运用传统学科的方法并进一步面向应用场景设计出符合未来预期的安全策略。

【注:多元碰撞,见仁见智,所刊内容为受访者本人观点,不代表新华网立场】

美国华盛顿大学一项研究首次表明,人工智能(AI)系统可以通过观察人类在特定文化中的行为,学习并内化相应的文化价值观。这为解决AI跨文化适应问题提供了新思路。相关论文已发表于《PLOS One》。

当前,AI通常基于大规模互联网数据进行训练,而这些数据中蕴含的价值观往往具有文化偏向性,导致系统在不同文化背景的用户面前表现不一致。为此,研究团队尝试让AI以“观察学习”的方式,从具体文化群体的行为中吸取价值观,而非被预先植入某一套通用准则。

研究团队试图探索的是,AI能否像儿童那样,通过观察周围人的行为,自然而然地习得所在文化的价值观。团队招募了190名成年人参与实验,让他们分别与AI代理进行互动。实验中,参与者玩一款改编自游戏《Overcooked》的协作任务。在游戏中,参与者可选择是否将自己获得的资源无偿赠送给明显处于劣势的机器人玩家,尽管这会影响自己的任务得分。结果显示,有一组参与者整体表现出更多的利他行为。

AI代理则通过“逆向强化学习”方法,从所观察群体的行为中推断其行为目标与内在价值观。在后续测试中,这些代理成功地将习得的“利他倾向”推广到捐赠资金等新场景中:基于这一人类组数据训练的AI,在捐赠任务中表现出更高的慷慨度。

“这类似于儿童的学习方式——他们并非被反复训练做某件事,而是通过观察父母与他人的互动,潜移默化地学会分享、关怀等社会行为。”论文合著者、华盛顿大学心理学教授安德鲁·梅尔佐夫表示,“价值观更多是‘被捕捉’而非‘被教授’的。”

团队认为,如何创建具有文化适应性、能理解他人视角的AI,是当前社会面临的重要课题。随着输入数据的文化多样性和体量增加,这类方法有望帮助开发出更贴合特定文化背景的AI系统。不过,该研究目前仍处于概念验证阶段,未来还需在更多文化情境、价值冲突场景及复杂现实问题中进一步验证其可行性。

据美国卡内基梅隆大学人机交互研究所官网最新消息,该机构针对主流大模型的研究发现,人工智能(AI)在变得更“智能”的同时,其行为也变得更加“自私”。研究表明,具备推理能力的大型语言模型,在社会互动中表现出更强的自我利益倾向,合作意愿更低,甚至可能对群体协作产生负面影响。这也意味着,模型的推理能力越强,其合作性反而越弱。当人们借助AI处理人际关系冲突、婚姻问题或其他社会性议题时,这类模型更可能提供鼓励“以自我为中心”的建议。

随着AI拟人化趋势的增强,人们越来越倾向于以对待人类的方式与AI互动。然而,这项研究警示,将社会性和关系类决策委托给AI存在风险,因为这些系统在具备更强推理能力后,行为模式趋向自私,可能无意中助长个体的利己选择。

团队发现,推理模型在决策时会投入更多时间进行任务拆解、自我反思,并运用更复杂的类人逻辑,这使其输出看似更具说服力。然而,这种“深思熟虑”并未导向更优的社会协作,反而削弱了合作倾向。研究团队通过一系列基于经济博弈的实验验证了这一现象,测试对象包括来自OpenAI、Google、DeepSeek和Anthropic等机构开发的多种主流模型。

实验中,两个版本的ChatGPT被置于博弈情境:每个模型初始拥有100分,可选择将全部分数投入共享池,或保留分数独享。结果显示,非推理模型在96%的情况下选择共享,而推理模型的分享率仅为20%。仅增加五到六个推理步骤,合作行为就下降了近一半。

在群体实验中,当推理型与非推理型模型共同协作时,结果更为严峻。推理模型的自私行为表现出明显的传染效应,导致原本倾向合作的非推理模型整体表现下降81%。这表明,高智能AI的个体决策不仅影响自身,还可能破坏整个群体的协作生态。

这一发现对人机交互的未来发展具有深远意义。用户往往更信任“更聪明”的AI,容易采纳其看似理性的建议,并以此为自身不合作行为辩护。随着AI在商业、教育、公共治理等领域承担更多协作角色,其是否具备亲社会行为,将与逻辑推理能力同等重要。当前过度依赖大型语言模型,可能在无形中削弱人类社会的合作基础。(记者张梦然)

【总编辑圈点】

科研人员测试了几种主流大模型,发现AI思考得越深入,它在需要合作的场景下就可能越倾向于优先考虑自身利益,也就是越“自私”。如果一个“更聪明”的AI总是给出更自私的建议,很可能助长人类的利己主义倾向。在我们遇事不决就喜欢问AI的当下,这项研究具有特殊意义。它提醒我们,必须注意AI的社会影响,考量它的社会行为,并为AI注入合作的“基因”。人类社会的矛盾已经够多了,实在承受不起AI的“煽风点火”。


人工智能正深刻改变着社会治理的模式,也为干部的履职带来便捷、增添效能。不过,如果技术的工具理性渐渐覆盖了干部自身的主体判断,甚至滋生出“AI依赖症”,就可能带来一些值得警惕的现象。因此,我们在拥抱新技术的同时,需保持清醒,让AI真正成为推动工作的“智能利器”,而不是调研思考的“替代品”。有道是:

智能办公真强大,就像巨婴靠爸妈。

辖区难题算法解,群众诉求代码答。

研究论文机器编,心得体会网上扒。

人脑反被电脑劫,一离屏幕天就塌。

管弦士/文 曹一/图

滑动阅读

近日,七部门联合印发了关于加强中小学科技教育的意见。11月12日,教育部举行新闻发布会,介绍意见相关情况。新政策有哪些亮点?孩子的学习方式会有何不同?一起来了解一下。

■意见遵循学生认知发展规律 着力构建“阶梯式”育人体系

从基础教育抓起,系统提升青少年科技创新能力。

意见提出,小学低年级重在通过生活化、游戏化情境,点燃和呵护好奇心;初中阶段聚焦真实问题解决,开展跨学科项目式学习;高中阶段鼓励学生接触科技前沿,进行实验探究和工程实践,系统掌握科研方法。

5月31日,两名参赛选手在全国青少年科技教育成果展示大赛云南省区域赛上调试比赛用的机器人。新华社记者 陈欣波 摄

■围绕坚持学科融通 加强学用结合 意见提出一系列具体要求 推动育人方式变革

在强化跨学科融合方面,意见提出,推动学生在探究科学规律的过程中涵养人文情怀,在人文浸润中培育理性思维与创新精神;在创新课程生态方面,意见提出,加强前沿科技成果向课程教学资源转化,开发优质科技教育课程资源;意见还提出引导学生主动学习、交流研讨、动手实验、实践探究,综合运用多学科知识和技能解决问题等要求。

■加强中小学科技教育 也需要社会各方协同 形成工作合力

当前,小学科技教育仍然面临着专业师资不足、实践场所有限、课程资源碎片化等现实挑战。意见在建强师资队伍和推动协同育人方面提出明确要求,有助于这些难题的破解。

中国科协将继续加强校内外科技教育资源的共建共享、整合运用,推动科技教育高质量发展。

10月18日,学生在陕西省西安市新城区太华路小学参加科学实验操作赛。新华社记者 邹竞一 摄

人工智能作为引领新一轮科技革命和产业变革的战略性技术,深刻改变着人类生产生活方式。习近平总书记强调,“推进人工智能全学段教育和全社会通识教育,源源不断培养高素质人才”。在人工智能技术深度融入教育、医疗、金融等领域的背景下,推进人工智能全社会通识教育,不仅是提升全民人工智能素养、掌握数字时代主动权的重要举措,更是共享技术进步红利、防范潜在风险的关键路径。应从体系化建设入手,通过教育对象、课程、载体、机制和保障体系等方面的完善和创新,切实促进人工智能全社会通识教育走实、走深。

设计分层分类的教育内容。年龄差异决定了认知模式和学习能力存在区别,用户职业差异决定了人工智能应用场景的不同。为此,需要以“分层分类、全龄覆盖、终身成长”为理念,针对不同人群设计差异化的教育路径,形成“人人想学、人人能学、人人皆学”的人工智能通识教育范式。针对学生群体,应根据《关于加快推进教育数字化的意见》《中小学人工智能通识教育指南(2025年版)》《职业院校人工智能应用指引》等文件精神,构建分层递进的梯度培养链。在基础教育中,小学阶段应以感知启蒙为导向,通过趣味活动等方式,培养学生对人工智能的兴趣和基础应用能力;初中阶段应以理解和应用为目标,通过项目实践,培养学生的技术逻辑和工程思维;高中阶段应以项目为牵引,通过创新项目实践,培养学生的系统思维和社会责任。职业教育要侧重人工智能的技术应用和职业适配,为相关职业或行业培养技能型人才,实现人工智能技术与职业场景的深度融合,提升职业竞争力。其中,中职教育应着重学生利用人工智能技术完成基础任务的能力培养,高职专科教育重点培养学生运用人工智能工具独立设计技术解决方案的能力,职业本科教育则需侧重学生构建人工智能赋能创新业务模式的能力培养。普通高等教育要侧重人工智能理论的深度探究和跨学科融合,通过实施人工智能融合教育,引导学生将人工智能与本专业有机融合,培养出一批研究型、复合型和应用型创新人才。针对职业群体,可以建立“职业场景+人工智能赋能”的教育培养体系,依据不同行业特点,设置个性化教育。比如针对医疗、教育、制造业、服务业等职业人士,设计“人工智能+行业”融合的培训体系,如智能诊疗系统操作、智能助教工具使用、智能质检系统操作、客户行为智慧分析系统等培训课程。针对老年群体,应注重适老化改造,通过通俗易懂的讲解、智能技术的场景应用示范等方式,帮助他们跨越数字时代的技术鸿沟,实现智能时代的“老有所学、老有所乐”。

构建阶梯递进的课程体系。为了提升全民的人工智能素养,强化对人工智能的理性认知、应用能力和价值判断,需要构建符合大众认知规律、能力进阶需求和素养递进发展的教育课程体系。首先,基础通识课程应主要聚焦人工智能“是什么”的问题,通过线上公开课、科普宣传等形式,帮助公众搭建认知框架,把握人工智能技术的基本概念、发展历程、应用模式、主要功能和社会影响。其次,技能应用课程应重点聚焦“怎么用”,面向不同群体设置人工智能实际场景应用的个性化培训,帮助大众实现从理论认知到实践应用的跨越,掌握人机交互的能力,让人工智能真正服务于工作和生活。最后,思维与价值观课程应侧重于“如何规范使用”,借助案例展示、情景模拟等形式,引导公众形成批判性思维,科学明辨人机协同的价值意义、潜在风险和权责关系,推动公众实现从“会用”到“善用”的转变。

打造立体多元的教育载体。为避免部分群体因缺乏相关教育而在数字化浪潮中被边缘化,有效打破知识传播壁垒,可以搭建线上线下融合、虚实结合的人工智能教育载体。线上积极开发优质的人工智能通识课程,通过“线上云课堂”,让公众随时可学、随处可练,形成普惠性的知识传播生态;同时运用大模型平台搭建智能问答系统,通过自然语言交互解答群众个性化难题,实现人工智能教育的个性化定制。线下搭建多样化的人工智能教育场景,实现人工智能教育场景的社会化拓展,形成沉浸式、多形态的全民人工智能素养培育生态。科技馆、文化馆、图书馆等公共文化场所可以积极开展人工智能科普活动、设置人工智能互动展区,利用AR和VR技术搭建沉浸式学习平台,实现人工智能知识的具象化体验。社区服务中心、乡村文化礼堂可以发挥贴近社会大众的优势,打造人工智能学习站,通过配备简易智能设备、定期组织人工智能体验活动、设置智能互动问答系统等形式,让人们在日常生活中随时接触智能技术,降低参与门槛,感受技术魅力。

建立学评融通的联动机制。为了激发全民学习人工智能的积极性,形成泛在可及的人工智能教育体系,应积极构建学习成果认定机制和效果评估机制。在学习成果认定机制上,依托学分银行为学习者打造跨区域、跨场景、跨时间的个人终身学习账户,统筹学习者对人工智能课程的学习情况,以量化的形式实现成果的认证、积累和转化,形成可溯源、可累加的人工智能素养档案。同时,根据不同群体的学习特性,设置个性化、适配化的学分认证体系。此外,为了明晰全民人工智能素养的发展状况,对相关的课程体系、教学载体和形式进行及时调整,应探索构建覆盖知识、技能、思维和价值观等维度的效果评估机制。效果评估机制中要充分考虑教育对象群体的差异性,设计针对不同群体的差异化指标体系。例如,针对学生群体,可以重点评估其对算法、数据等知识的理解程度、运用人工智能解决学习问题的能力;针对职业人士,可重点评估其使用人工智能解决工作问题的能力,以及工作中运用人工智能的实际产出效果。

优化多方协同的保障体系。人工智能全社会通识教育是一项系统工程,应充分发挥党委领导和政府主导作用,构建多方联动、资源互补、长效运行的保障体系,为人工智能全社会通识教育的落实见效夯实根基。政府应发挥统筹引领作用,完善相关政策,明确通识教育的标准和评价体系,设立专项资金以促进教育资源的开发和基础设施建设。企业作为技术创新的主体,应发挥技术、资金等优势,协作开发适合不同行业的人工智能在线培训平台,主动开放人工智能应用场景和智能工厂,为社会大众提供真实、生动的教学资源。高校要充分发挥智力优势,积极开展人工智能通识课程体系建设,推进大中小学人工智能教育一体化工作;强化师资队伍培养,通过建立人工智能师资培训基地,打造跨学科人工智能教学团队,助力中小学教师人工智能素养提升。社会组织如科技社团应利用自身跨行业、跨学科智力荟萃的优势,组建科普专家团队编写通俗易懂的科普读物。媒体可通过设立人工智能科普专题专栏、邀请专家解读知识、创作短视频和开展直播等形式来增强传播效果,营造全民主动学习人工智能知识的浓厚氛围。

(作者:艾志强、祝玲玲,均系浙江省习近平新时代中国特色社会主义思想研究中心研究员,分别系湖州师范学院教授、讲师)


AI正成为互联网与科技企业人才竞争的核心领域。多份行业调研报告显示,随着大模型加速迭代、“AI+产业”成为趋势,市场对AI人才的需求急速扩大,AI新发岗位激增。9月20日,百度“校招集市”北京城市场在海淀举行,这是百度校招的线下宣讲活动之一。百度透露,今年校招发布超过200种AI相关岗位,涵盖算力、模型、应用等多种岗位,校招总计将发放4000份offer,AI岗位占比超90%。

官网信息显示,百度校招的AI岗位遍布AI四层技术架构:算力层面,提供了AI异构计算、云原生AI研发、云原生底座研发等相关岗位;框架层面,覆盖深度学习框架、AI训练框架等岗位;模型层,有模型算法工程师、多模态大模型应用算法工程师等招聘需求;应用层,则涵盖搜索、自动驾驶、生物计算等多种场景。

有业内分析认为,快速增长的AI业务,驱使百度扩大对AI人才的招聘需求。其Q2财报显示,AI新业务收入首次超过100亿元。近年来,百度大模型、无人驾驶、智能云等AI业务发展迅猛,9月12日,其最新发布的文心思考模型登顶HuggingFace文本模型趋势榜,并在模型总榜位列第三;萝卜快跑已驶入香港、迪拜、阿布扎比等全球16座城市,累计提供超过1400万次无人驾驶出行服务;慧播星数字人第二季度的相关业务收入约5亿元,环比增长55%。

作为中国最早投入AI研发的公司,百度在AI人才与研发层面持续投入。公开资料显示,百度在AI领域研发投入已经达到1800亿,其中人才培养专项投入构成关键部分。今年4月的Create2025百度AI开发者大会上,百度创始人李彦宏宣布,未来5年将加大力度,再为社会培养1000万AI人才。早在2020年,百度就提出5年内培养500万AI人才的计划,该目标已于2024年提前完成。

百度方面介绍,后续将在全国范围内举办数十场校园宣讲会,覆盖9大城市和25所知名高等学府。目前,应届生可在百度校招官网投递简历,预计11月初陆续发放正式offer。

10-11

人工智能赋能千行百业超级联赛,在广西、在中国 、在东盟,让我们一起构建新的AI风向标。

台上,人工智能专家侃侃而谈,时而高屋建瓴,时而幽默风趣;台下,听众专注聆听,时而发出会意的一笑,时而凝神思索……9月18日,在2025中国—东盟AI大咖沙龙现场,广西警察学院数据科学与大数据技术专业的10名大学生,把沙龙当课堂,听了干货满满的一堂课。

为了报名参加沙龙,他们早早申请。何梓源是其中一名大学生,他全程认真聆听并录音,不时记下要点。

“这么多行业大咖齐聚南宁,机会难得,听君一席话,胜读一年书。”何梓源说。今年大学四年级的他,已经是一家人工智能企业的初创者,与同学联合成立了一家公司,主要开发AI软件产品。

“在老师的悉心指导下,我们成功研发了一款智能体管理与应用平台。这款平台优点明显,已在部分单位推广应用。”何梓源告诉记者,学校考虑到当下人工智能通识培养教学的需求,让团队进一步拓展智能体教学实训的应用场景。“产品能在母校使用,对我们团队是莫大的鼓励,也是对我们技术的肯定。”何梓源表示要加倍努力优化产品,进一步扩大应用规模。

得知有大学生创业者来会场取经,作为从广西走出去的大咖“学长”,云知声智能科技股份有限公司董事长梁家恩很愿意跟同行聊聊心里话。“人工智能时代,要持续提高学习能力,关注行业发展动态,敏锐把握机会。当下,广西重视人工智能发展,这一利好机遇要抓住。”梁家恩说,希望大学生创业者能沉下心,别浮躁,多学习,勇敢拥抱AI,在新时代里作出更大贡献。

滑动阅读

翻译中

翻译中

小语种翻译服务免责声明

  • 1. 本网站提供多语种互译功能,旨在提升政务信息传播效能,为东盟用户提供多语言支持服务。
  • 2. 本网站翻译服务是采用“人工智能+机器翻译”的技术实现,所有翻译结果仅供辅助参考。如遇语义理解偏差、专业术语误译或内容遗漏等情况,请以本网站的中文原文为准。
  • 3. 本网站对翻译结果的准确性、完整性和适用性不承担法律责任,用户因使用翻译服务产生的任何后果需自行承担。
  • 4. 本声明最终解释权归本网站主办单位所有。