努力做“把命令下达清楚”的基层指挥员******
下达命令,务必清楚明确
■杨元超
不久前,我作为基地前进指挥组成员,随某旅夜间火力突击演练分队跟训。部队出发前,发射连连长在班排骨干会上提了不少要求。我旁听了一会儿,觉得他说的有些空泛、不够具体。比如,要求遭“敌”精准打击时各车灵活处置,却没说何时进行伪装、能否脱离梯队自行疏散隐蔽;安排兼职卫生员在出现人员“伤亡”时迅速处置,却对兼职和本职工作冲突时哪个优先没有明确;强调严格按规程操作,却对紧急情况下容易变形走样的环节没有强调提醒……而这些,恰恰是班排骨干最关心的点,也是他们在会后最需要给所属战士明确的。再一看听了连长讲话的骨干们,很多也是一脸茫然的样子。
回想起自己担任指导员的经历,“把命令下达清楚”,也是战士们给我上的第一课。记得上任不久,我连就参加了一次阵地外围警戒任务,事先我只给各警戒小组大体划分了范围,对一条平时很少有人车经过的“断头路”却没指定责任人,只说“有情况各小组兼顾一下就行”,结果当晚的导调课目恰恰是小股“敌特”从这条路上潜入。由于相邻两个小组在警戒巡逻时都对这条路“一带而过”,导致“敌人”差点渗透到装备附近,要不是操作号手及时发现,整个发射行动就失败了。
任务结束,我把责任归咎于警戒人员主动作为意识不强、不知及时补位,还当众批评了这两个小组。但我从战士们的眼神中感到,他们感到很委屈,甚至有些不服气。事后,副连长找到我开诚布公地说:“这次真不能怪战士们,怪就怪你没有把命令下达清楚。”
一语点醒梦中人。循着副连长的话反思,我发现自己除了这次任务外,在日常工作中也有不少命令下达不清的情况。开连务会部署工作,有的骨干几乎不动笔记录;晚点名讲评工作,队列里明显有人心不在焉……细细回想,出现这些现象的原因就是当时自己讲了不少正确的废话和“两头堵”的车轱辘话,而对官兵迫切想知道的“我该干什么、怎么干、达到什么标准”等,却囫囵吞枣、语焉不详。
认识到自己的问题后,再下达命令、布置任务时,我努力做到把方向目标指清楚、把标准要求尽可能量化到“米秒环”、把责任压实到具体人。如此一来,开会的时间变短了,任务却安排得明明白白。后来,有不少骨干反映,指导员讲话终于能说到点子上了。
战士们的鼓励,引发我更深的思考。作为一线带兵人和基层指挥员,“把命令下达清楚”很难吗?想想其实并不难,关键在于下达命令前一定把情况弄清、把任务想透,下达的命令一定要简明扼要、易于理解、具体可行,同时明确重点难点堵点,并给出相应的解决方法。战场上、工作中,固然需要官兵们发挥主观能动性,但绝不能因此而在安排任务时含含糊糊、大而化之,更不能故作高明地卖个关子,让部属去揣摩和猜测。因为,只有上级把话说清楚,下级才能把事干明白。
人工智能语言模型 在智商测试中胜过人类******
新华社讯 据《参考消息》报道,美国加利福尼亚大学洛杉矶分校的研究人员发现,在衡量智力的一系列推理测试中,自回归语言模型“生成型已训练变换模型3”(GPT-3)的成绩明显优于普通大学生。该程序利用深度学习生成类似人类语言的文本。
由美国开放人工智能研究中心(OpenAI)研发的GPT-3有很多用途,包括语言翻译和为聊天机器人生成文本等。GPT-3有1750亿个参数,是目前规模最大、功能最强的语言处理人工智能模型之一。
这项新研究在常识、美国高校入学资格考试(SAT)成绩和智商这3个方面比较了GPT-3和人类的表现。发表在阿奇夫论文预印本网站上的研究结果显示,在这3个类别中,人工智能语言模型的成绩都高于人类。
研究人员在研究报告中写道:“我们发现,GPT-3展示出了惊人的抽象图案归纳能力,在解答大多数题目时表现和人类不相上下,甚至更好。我们的研究结果表明,像GPT-3这样的大型语言模型已经具备用零样本学习方法解决一系列类比问题的初步能力。”该报告有待同行评议。
研究小组还说,GPT-3“通过与生物智能截然不同的路径,被动形成了类似人类类比推理能力的机制,尽管它并未在这方面经过明确训练”。
这项研究发现,能够回答大多数问题甚至为人类起草论文的GPT-3,在从头开始回答问题和回答多选题时的表现超过了人类。
人工智能专家、作家艾伦·汤普森博士说,GPT-3的智商超过120。毫无疑问,这属于“天资聪慧”。
(文图:赵筱尘 巫邓炎)