• AIGC正确的打开姿势
  • 发布于 2个月前
  • 183 热度
    0 评论
ChatGPT爆红,Midjourney大火,阿里张勇高喊“所有产品都值得用AI再做一遍”。来势汹汹的AIGC潮流,确实给职场上的老板和打工人们,带来了很大影响,只不过影响的方向不太一样:开始有点飘的老板,琢磨的是“下一个我要裁谁?现在有AI撑腰,很快就能离谁都行”;被AI和老板搞得无所适从的打工人则是在想“我TM现在是谁?以前干的好好的活,现在咋就不会干了呢?”

我前几天在某个活动中,遇到一家游戏公司的设计师小L,闲聊的时候提到了AI对各行各业的影响。我问他“听说AI对你们原画师、设计师影响很大,还造成了不少人的失业,真是这样吗?”小L听后苦笑:“确实造成了一些人失业,但并不全是被AI的能力取代掉的,有不少是被迷信AI的老板给气跑的”,他解释道:“AI火了以后,不少老板开始谜之自信,认为AI可以随便取代人工,其实根本不是,比如用AI生成的图片,清晰度根本不能拿来商用,如果对它精细化修改,达到可以使用的标准,整个优化的过程要来回切换各种工具,花费很多时间。有时候要不是领导逼着用AI,我们宁愿自己来干,都比这省心。”

无独有偶,最近一位北京的读者朋友给我发私信,也提到了AI带来的困扰,他在私信中说,自从公司引入AI,老板就像找到了靠山,每次布置任务都是一再加码,要么收紧交付周期“以前你们一周完成,现在有了AI帮忙,2天应该就够了吧”;要么是在同样的时间疯狂加量“你们以前一天出5张图,现在有了AI,应该能出20张吧”,而且态度很坚定、强硬,偶尔还会透露出一丝“给你活你就珍惜吧,哪天AI把你替掉了,你想干活都没得干”的优越感。

从上面的案例不难看出,AI给老板们带来的“信心”,绝对是梁静茹比不了的。能主动体验、使用新的工具,本来是好事,但如果不顾新科技的客观局限性,和实际使用中存在的现实问题,只是自顾自想当然,甚至试图让新科技成为压榨员工的帮手和工具,那原来的好事就可能朝着相反的方向发展。

一.AIGC,从入门到放弃?
1、最该学习AI的人,是老板
抛开底层的创新和研发不谈,我们中国人在新技术应用的速度和开放性上,绝对是全球数一数二的。再加上如今不景气的经济环境,更让很多企业老板把引入新技术,当成了挽回颓势的救命稻草。于是老板们开始尝试在原有的工作流程中,寻找能够“塞进”AI技术的空间,对员工也拼命“AI化”要求,比如越来越多的企业在招聘启事中,会列出“会使用ChatGPT、Midjourney等各种AI工具”一类的要求。

有应用新科技的意识是很好的,但这些老板似乎忘了一个基本前提,就是他们应该站在比一般员工更高的高度,更深刻的理解和认知AI这一工具,而不是只知道一点皮毛,就过于乐观地认为,现在的AI、AIGC就是能帮自己降本增效的利刃和神器。我技术出身,很早就关注AI的发展动态,自己也有一家新媒体公司,对于在目前技术环境下,AI在实际工作中的应用情况,还是非常了解的。

举个例子,很都人都知道Chatgpt能帮我们写文案,但能“帮”到什么程度,相信很多人并一定真知道。作为自媒体老板,我曾经让同事们用ChatGPT为我们撰写文章标题,因为对自媒体来说,标题真是太关键了,我们所有输出的内容,都要花相当多的时间写标题、选标题、改标题上。如果Chatgpt能够帮我们生成更多吸引人的标题,供我们选择,那会给我们带来很大的帮助。

在尝试的时候,尽管我们会对文章的内容从各个角度进行提示,但收到的效果却并不理想。除了速度很快,可以瞬间生成几十条,上百条外,Chatgpt生成标题的品质,真是不敢恭维,几乎很少有可以直接使用的,即使偶尔可能带来一些新灵感,但最终还是要靠人工去重新构想、撰写和打磨。整个过程,无论是从输出质量,还是从节省时间的角度看,几乎没有任何大的帮助。

除了标题这种高度“精细”化的活外,想让AI帮忙写个大纲这种相对粗放、容错率高一点的活儿,质量也同样很难通过我们的验收(难道是我们的要求太高?)。总体来说,ChatGPT生成的内容,观点过于假大空,案例过于流于表面,结构过于简单僵硬,“首先…其次…再次….最后”这种平淡无奇的行文布局、这种浓郁的“AIGC”味,让观众隔着屏幕都能闻到。实话实说,这种品质的AIGC,我们是没有勇气“端上桌”呈现在读者面前的。

而这一切,也让我这个公司老板,更深刻的了解了AIGC的局限性:目前这个阶段,它并不能真正替代人,它只是一个在不断演进中的生产工具,有帮助,也有难以克服的短板。如果对它“谜之自信”,恰恰表明你对这个新工具的理解,还不够深入。尤其对老板来说,客观、深刻的认识AI科技和AIGC,会对他们做出的某些决策,起到非常重要的影响。这一课,对老板们来说,该补的一定要补。

2、目前的AI工具,是有学习成本的
在AI工具给工作带来帮助、提升效率的同时,不要忽略另一个现实问题,即目前的AI工具,不是手到擒来、拿来就用的,而是需要具备各种主客观条件才能“解锁”使用的,不论ChatGPT、Midjourney、stable diffuion,都是需要付出一定的学习成本的。

以ChatGPT为例。很多人都有一个基础认知,要想用好ChatGPT,必须学会用提示词(Prompt)来“调教”它。对它投喂不同提示词,产生的效果,会千差万别。而在目前这个阶段,要想熟练掌握驯化ChatGPT的提示词,各行各业的从业人员,都要持续付出很多时间加以琢磨总结。要了解一些底层的基本逻辑,比如,要懂得把人类语言的句式结构,拆解成主题、任务、形式、细节等一些关键的提示词,机器才会更容易get到你的真实意思;再比如,要了解机器不是抓取关键词,而是依照概率对使用者的指令进行预测,所以使用者要懂得按照“重要性”排出提示词的先后顺序。

这还只是一般情况,如果应用在生物医药、金融等容错率较低的垂直领域,输入的信息还要从一般语言转变成专业知识,对提示词技能的要求也会相应变得更高。

3、AI工具成熟度,良莠不齐
据Gartner绘制的“2022年人工智能技术成熟度曲线”显示,我们目前的生成式AI,仍处于技术萌芽期,预计还需要2-5年的时间才能实现规模化应用。对于萌芽阶段的新生事物来说,出现成熟度、适配度良莠不齐的情况是再正常不过的。

以AIGC出图为例,不管Midjourney,还是DreamStudio,再或者是Image Create,我们都做过测试,也和使用这些工具的相关领域的朋友交流过,总体感觉是,它们远远没有达到我们想要的“智能”程度。有时候调教了半天,不断修改提示词,不断刷新它生成的备选图像,仍然得不到我们想要的图像效果。整个流程下来,甚至要比自己去画都要耗时费工。

我曾听过一件有趣的事,某游戏公司老板要求下面的画师,全员学习AI技术,强迫大家使用Midjourney画图,其中一个画师确实觉得用Midjourney太费事,就模仿Midjourney画图的风格,自己来画,然后糊弄老板说是AI生成的。画师被逼无奈的“逆向工程”,这事听了让人觉得既有几分滑稽,又有几分心酸,太难了。

4、合法性,安全性问题凸显
合法性,是很多企业使用各种国外AI工具、感受“AIGC”真香的同时,不能回避的重要问题。以ChatGPT为例,OpenAI公司并未允许其对中国开放,国内用户要想体验它,首先要解决就是IP地址访问的问题,也就是网友常说的“梯子”问题。

但根据我国《计算机信息网络国际联网管理暂行规定》的相关规定,使用未经合法许可的国外网络服务,是不被允许的。如果只是个人,通过各种“手段”体验一把新科技,这可能还不是太大的问题;但如果是企业级的使用,对产品和服务的稳定性、持续性的要求就会非常高了,这个前置问题如果不能解决,就像在企业头上悬了一把达摩克利斯之剑,大家心里不会踏实,也不敢光明正大地全力铺开推行。

其次,还有网络数据安全的问题。目前成熟度更高一些的AI工具,大多是国外公司开发的,服务器和数据存储都在国外,这对很多国内企业来说,数字安全问题,就是另一个需要正视的问题。三星就曾曝出芯片机密代码遭ChatGPT泄露的严重事件,后来不得不自己下场研发供内部使用的AI工具。我们很多国企央企、上市公司,对AI工具的使用都有明确规定,也正是基于数据安全这一角度出发,做出的应对之策。

二.AIGC,正确打开姿势
“赛博朋克之父”威廉·吉布森有句名言:“未来尽在咫尺,只不过若隐若现”,ALGC就是如此,我们要提前做好准备,迎接它的到来,但什么才是打开它的正确姿势呢?

1、深入学习AI,结合实际业务找应用场景
对于AI的认知,不能停留在流行或娱乐式的体验上,而应该将其视为重要的、严肃的生产工具。因此,对AI还要不断拓展认知边界和学习深度;比如,提到AI,你不能只知道Chatgpt可以写文案,还要知道stable diffuion可以做装修效果图、Claude更擅长读论文写摘要…这些都是极其基础的应用场景认知。作为企业只了解这些还是不够的,还要进一步搞清楚why、how等深层问题,再结合自己的业务场景,进行整体性、系统性的深入思考。

举个例子,电商平台可以使用机器学习算法,以便更好地为客户进行商品推荐。在这个场景中,为什么要使用机器学习算法(why)?因为这个算法可以通过学习用户的历史购买行为,预测用户未来的购买意向,从而提升用户转化率和销售额。如何使用机器学习算法(how)?可以通过构建基于用户历史数据的协同过滤推荐系统来实现,然后根据自身用户数据、业务需求,设计具体的模型与指标。

2、优化生产链条上的某几个环节
根据目前AI的发展阶段和技术特点来看,它们在整个工作体系中的价值,还远没到坐C位的地步,而是更适合在某些生产链条中的某些环节,发挥优化和辅助的作用,实现人工智能和人类智慧更完美的结合,而不是人类当甩手掌柜,把活全交给AI工具。

比如,在使用ChatGPT辅助写作时,虽然AI工具可以提供论点和思路,但作者仍然需要对这些论点进行筛选、加工和整合,以确保文章的逻辑和连贯性。同样,在使用Midjourney激发创意灵感时,设计师仍然需要进行创意的提炼和加工,以确保设计的独特性和创新性。

3、与AI合作,避免过度依赖
虽然AI工具可以提高效率,但我们并不能全部依赖AI,而是要把AI当成合作伙伴,通过合理分配任务,发挥各自优势,实现人机协作。比如,一家企业让AI进行产品数据分析,实现人机协同的整个流程是:先由人工提出分析需求——AI进行大规模数据处理——人工检查结果,发现问题进行纠正——人工做出业务决策。

如果过度依赖AI工具,除了要面对AI因自身局限性带来的问题,还要注意因过度依赖AI,而导致的人员技能退化的问题。比如,在医疗领域中,AI可以帮助医生进行疾病诊断,但医生仍然需要对诊断结果进行确认和判断,一方面要避免AI诊断结果的错误,另一方面还要保持医生对业务的“手感”和熟稔程度。

4、数据质量、隐私与安全
AI的使用效果,取决于数据的质量,这是对AI技术的一个基本认知。众所周知,人工智能工具需要大量数据进行训练和预测,如果训练数据存在较多噪音、偏差与误差,模型将学习到这些误差,进而产生误判,影响AI的效果和适用场景。因此,训练数据的质量尤为重要。需要企业在数据采集与管理上,把工作做到位,要加强数据处理和质量控制,确保AI可以基于全面、准确、可代表的训练数据,进行学习和优化。

此外,数据的隐私和安全是另一个不容忽视的重要的问题。在企业应用上,前文提到了三星芯片机密代码遭泄露的事件,实际上这样的事情已经出现多例,都足以提醒企业,在使用各种AI工具时,一定要有防范意识,要对关键核心数据,做好加密保护措施,不然极可能得不偿失。

个人使用AI工具,同样要重视个人数据的安全。现在AI的技术,在经过简单训练后,不仅可以模拟生成一个人的图像,还可以生成逼真的合成视频和足以以假乱真的声音,给很多不法分子可乘之机,因此个人对自己的数据,要注意做好去标识化处理,避免直接暴露敏感个人信息,并在产品、系统授权上设置严格的数据访问权限等方面的措施,以确保个人的数据安全。

360创始人周鸿祎,曾在接受媒体采访时表示:从网络安全的角度考虑,企业在使用大模型时,一开始步子可以小一点,不要向它开放API,坚持“人在回路”,让人的意志在决策上起关键作用。

我非常认同周总的观点,在AI使用上,我们可以小步快走,不要怕试错,但不要犯大错;在人机协同上,不要偏废,更不要偏信。人在,心也会更安,至少这个阶段还是如此。最后,我想说,不论是企业还是个人,我们生逢其时,既然入了AI的“门”,就不要轻言“放弃”,在时代趋势面前,只有不断学习,摸索前行,哪有什么“后退”可言。共勉!
用户评论