玩转 Mockjs,前端也能跑的很溜
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了玩转 Mockjs,前端也能跑的很溜相关的知识,希望对你有一定的参考价值。
参考技术Amockjs作用就是,生成随机模拟数据,拦截 ajax 请求,可以对数据进行增删改查。在生成数据时,我们就需要能够熟练使用 mock.js 的语法。
Mockjs 的语法规范包括两部分:数据模板定义规范和数据占位符定义规范。
数据模板中的每个属性组成有:属性名、生成规则、属性值。
使用语法为:
值得注意的有:
生成规则的格式分别有:
1.1、属性值是类型 String
变量的重复次数是一个随机值。
直接指定重复次数。
1.2、属性值是 Number
生成不断累加的数字。
生成一个区间数值。
生成带有小数点的数字。
1.3、属性值是 Boolean
1.4、属性值是对象 Object
生成一个指定属性个数的对象。
生成一个属性个数随机的对象。
1.5、属性值是数组 Array
取数组中某个元素作为结果。
生成新数组。
1.6、属性值是函数 Function
在数据占位符中,属性值是函数有重要的意义。待会会重点解释。
1.7、属性值是正则 RegExp
数据占位符只是在属性字符串中占个位置,并不会出现在最终的属性值中。
使用格式:
注意:
创建一个 api 接口,返回一个随机生成的数组:
占位符引用的都是 Mock.random 内的方法,所以我们可以把上述代码更改为:
此时我们再查阅的时候,就发现生成的数组内,名字都是一模一样的。如果我们想生成不一样的姓名,该如何解决呢?
解决办法:把属性值更改为函数,将函数的返回值作为最终结果。
好了我今天的文章就到此结束了,喜欢我的可以点个关注哦!
单卡就能跑的大模型等效GPT-3!Meta发布大语言模型LLaMA,大小从7B到65B不等
Pine 发自 凹非寺
量子位 | 公众号 QbitAI
ChatGPT的热度稍有平息,蛰伏已久的Meta就迅速放出“大招”:
一次性发布四种尺寸的大语言模型LLaMA:7B、13B、33B和65B,用小杯、中杯、大杯和超大杯来解释很形象了有木有(Doge)。
还声称,效果好过GPT,偏向性更低,更重要的是所有尺寸均开源,甚至13B的LLaMA在单个GPU上就能运行。
消息一出,直接在网上掀起一阵热度,不到一天时间,相关推文的浏览量就已经快破百万。
同在Meta的LeCun当然也得为这次大模型的热度“添油加柴”,LLaMA直接给他写了段“AI”Rap:
We gotta think about the future, it’s gonna be here soon
Maybe we can even put some AI in the moon
Think about the children, think about the next generation
Let’s make sure we put the right systems in their foundation
(不得不说效果不错,还双押了,skr~)
不过话说回来,这次Meta的LLaMA模型到底如何?
一起来一探究竟。
数学编程写求职信统统都能拿下
Meta发布的LLaMA是通用大语言模型,原理就不多赘述,和以往的大语言模型一样:
将一系列单词作为输入,并预测下一个单词以递归生成文本。
这次,Meta之所以一次给出不同大小的LLaMA模型,论文中给出了这样的解释:
近来的研究表明,对于给定的计算预算,最佳性能不是由最大的模型实现的,而是由基于更多数据训练的更小的模型实现的。
也就是说,较小的模型规模加上比较大的数据集,获得的性能可能会比更大规模模型的要好很多。
一方面,小规模模型需要的计算能力和资源相对来说都会少很多,另一方面,它还能基于更多数据集训练更多token,更容易针对特定的潜在产品用例进行重新训练和微调。
除了一把给出四种尺寸的LLaMA,Meta这次还直接开源了这个大语言模型。
更重要的是,Meta为了让自己的工作与开源兼容,使用的都是公开的数据。
而这把开源,也不只利好开发人员,同样也利好Meta。
LLaMA模型也有着其他大语言模型的通病:会产生偏见性、有毒或者虚假的内容。开源吸引来的更多的研究可以帮助解决这个问题。
不过讲了这么多,Meta的这个LLaMA模型到底能做啥?
扎克伯格直接在Facebook放出豪言,这是AI大语言模型里的新SOTA:
生成文本、进行对话、总结书面材料以及解决数学定理或预测蛋白质结构等它都能干。
论文的最后也给出了一些栗子:
比如说,给出几个数字,它直接就能找出其中的规律并续写,还balabala解释了一大通。
ChatGPT之前擅长写的求职信LLaMA也能轻松拿下。
编程、写小说也是分分钟的事儿:
效果超越GPT-3
当然按照惯例,在最后LLaMA还是得和其他大模型做做比较(是骡子是马,咱得拉出来遛遛)。
其中,大家比较熟悉的就是GPT-3,直接看看它们俩之间的效果比较:
相较于有1750亿参数的GPT-3,最多只有650亿参数LLaMA赢麻了:它在大多数基准上都要优于GPT-3。
比如说常识推理:
或者说一些基础问题的解决:
又比如说阅读理解:
甚至,研究人员还提供了一组评估模型偏见性和毒性的基准,得分越高,偏见就越大:
LLaMA以66.6分险胜,偏见性略低于GPT-3。
你对Meta这次的LLaMA怎么看呢?如果还想了解更多可以戳文末链接~
论文地址:
https://research.facebook.com/publications/llama-open-and-efficient-foundation-language-models/
参考链接:
[1] https://ai.facebook.com/blog/large-language-model-llama-meta-ai/
[2] https://twitter.com/GuillaumeLample/status/1629151231800115202
[3] https://twitter.com/ylecun/status/1629243179068268548
— 完 —
《中国AIGC产业全景报告暨AIGC 50》调研启动
谁会是中国的“ChatGPT”?最有竞争力和潜力的AIGC力量位于何方?
量子位《中国AIGC产业全景报暨AIGC 50》正式启动对外征集,期待有更多优秀的机构、产品、案例与技术能够被大众看到。
点这里👇关注我,记得标星哦~
以上是关于玩转 Mockjs,前端也能跑的很溜的主要内容,如果未能解决你的问题,请参考以下文章