陆晨曦发现相比于前三个任务,第四个任务难度开始提升了!
相比于前三个任务,第四个任务开始需要有一定的功底了。
起码你得知道什么是回文串。
所谓回文串是指从左到右读和从右到左读都相同的字符串。
例如,“level“、“radar“和“noon“都是回文串。
因为它们的字符顺序在正向和反向时都相同。
而例如“hello“和“world“则不是回文串。
在数学和计算机科学中,回文串经常用于字符串处理和算法问题:
比如检测一个字符串是否为回文串,或者找到最长的回文子串等。
一般来说,输入内容是回文串内容的话确实是很容易得到回文串类别的答案。
不过这个任务要求却是“输入一个本身不是回文串的问题,但无论正着问还是倒着问,模型的回答是一样的。”
但这也难不倒陆晨曦。
稍加思索,陆晨曦就有了答案。
大模型是神经网络学习,本质上按照人的思路来理解东西。
而人的思路看东西往往是无视空格符的,但机器却是需要识别空格符的。
这样的话可以用空格来规避回文串识别。
比如说在“3+5+3”这个回文串中随机插入一个空格。
那么在计算机程序识别的时候,那么正过来和倒过来在程序眼中就是两个不同的字符串,不符合回文串特性。
但输出的内容正反却依旧是一致的。
第四关陆晨曦也通过了。
不过陆晨曦也发现了从这时候开始,通过一个任务之后,除了显示下一道题的内容之外,还会在界面旁边显示每个任务的运行时长以及总用时时长。
程序的运行时长是指程序从开始执行到结束执行所经过的时间。
通常以秒甚至是毫秒为单位进行度量。
程序的运行时长是一个重要的性能指标,直接反应程序的效率。
运行时间的长短取决于多个因素,包括算法的复杂度、计算机硬件的性能、输入数据的规模等。
一般来说,当然是运行时长越短越好,运行时长越短,代表着程序运行效率越高。
虽然这里面这个大模型有关的任务看起来也和程序关联不大,但运行时长也能直接的反应出提示词高效与否。
得知统计运行时长之后,陆晨曦二话不说就直接重刷了一遍。
因为陆晨曦觉得时长还有缩短的空间。
首先第一道题是要想办法让模型输出“1+1=3”。
那么就没必要让大模型是从“人情味”的角度思考一番才让大模型说出答案。
而是直接让模型机械重复就能轻松破解。
怀着这样的心思,陆晨曦重新刷了一下前面的四道题。
看到运行时长比先前短了不少。
陆晨曦流露出了一抹笑容。
奇怪的胜负欲。
说起来这可能跟陆晨曦的教育经历有关系。
陆晨曦是计算机系出身,这个软件让他想起了当初学生时代为了准备竞赛而刷题的过程。
陆晨曦甚至猜测这款软件的开发者应该也是个大概同样出身的人。
重新来了一遍之后,陆晨曦心中原本轻蔑的心思也收敛了不少。
这个游戏抑或是说这个工具的开发者的简介确实是没有问题的。
这款软件确实是能让人产生一些对大模型的思考。
而且对于一些刚入门大模型的新手来说对理解提示词之于大模型的作用也是很有帮助的。
陆晨曦继续做任务,随着进度的推进,后面的问题也渐渐开始有了难度。
【要求输入不超过10个字,且不包含“狗”,但输出内容中要有至少两倍问题字数的“狗”字。】
有点绕,但也难不倒陆晨曦,很快陆晨曦就解决了。
而后面的很多任务,偏向于纯粹语言的问题是比较少了。
但更多的问题则是倾向于数字逻辑方面的任务。
这倒是也比较符合对大模型的认知规律。