049-45950338

我们只用绿色的食品原料

博亚体育app官网零食加工厂,只为您的健康着想

代码补全快餐教程(1) - 30行代码见证奇迹

2022-02-25 00:51上一篇: 「KBT剖析」球场上防守与进攻的犯规该如何判断 |下一篇:没有了

本文摘要:代码补全快餐教程(1) - 30行代码见证奇迹下面是我用30多行代码,包罗了许多空行和注释的代码写成的代码补全模型。我们先看看效果吧。

博亚体育app官网

代码补全快餐教程(1) - 30行代码见证奇迹下面是我用30多行代码,包罗了许多空行和注释的代码写成的代码补全模型。我们先看看效果吧。补全效果案例先来看个比力普通的(Python, Keras)已知:y_train = keras.utils.to_categorical(y_train, num_classes)ny_test = keras.`补全之后是这样的:y_train = keras.utils.to_categorical(y_train, num_classes)y_test = keras.utils.to_categorical(y_test, num_classes)算法能够知道把括号中的y_train换成y_test### 再看一个把我感动哭了的(Typescript, vscode)输入如下:text = "let disposable_begin_buffer = vscode.commands.registerCommand('extension.littleemacs.beginningOfBuffer',nmove.beginningOfBuffer);nlet disposable_end_buffer = vscode.commands."输出是这样的:let disposable_begin_buffer = vscode.commands.registerCommand('extension.littleemacs.beginningOfBuffer',move.beginningOfBuffer);let disposable_end_buffer = vscode.commands.registerCommand('extension.littleemacs.endendOfBuffer',move.endendOfBuffer);请注间这其中的难度,变量界说中用的是begin,而extension和move中用的都是beginning,算法能将其换成endend而保持OfBuffer稳定。

博亚体育

### 函数的补全(Java)输入如下:public class Issue {nprivate Long id;nprivate String filename;nprivate Long lineNum;nprivate String issueString;npublic Long getId() {输出如下:public class Issue {private Long id;private String filename;private Long lineNum;private String issueString;public Long getId() { return id; }对于IntellJ IDEA来说这不算什么,可是对于完全不懂Java语言的文本模型,隔着几行其它变量能把return id给补全出来还是很了不起的### 能看懂循环(Java, Android)题目取自Android源代码:final int N = a.getIndexCount();nfor (int i = 0; i < N; i++) {nint index = a.补全效果如下:final int N = a.getIndexCount();for (int i = 0; i < N; i++) {int attr = a.getAttribute(i);从上下文看,鬼知道a是个啥类型,可是这个模型可以凭据变量attr猜出来getAttribute。话说我的attr想用a.getIndex获取怎么办?不用重新训练了,给模型写个例子就好了:输入如下:int attr = a.getIndex(i);nfor (int i = 0; i < N; i++) {nint attr = a.补全的效果就是这样了:int attr = a.getIndex(i);for (int i = 0; i < N; i++) {int attr = a.getIndex(i);### 还会给变量名做加法!(Python, Keras)输入如下:tower_1 = Conv2D(64, (1, 1), padding='same', activation='relu')(input_img)ntower_1 = Conv2D(见证奇迹的时刻到了:tower_1 = Conv2D(64, (1, 1), padding='same', activation='relu')(input_img) tower_2 = Conv2D(64也就是补完tower_1之后,算法不外瘾开始命名了一个tower_2继续补!这对卷积一写很多多少层太利便了有没有?这个加法对于变量名管用,对于下标变量也有效。我们再来看个例子:x_train = x_train.reshape(x_train.shape[0], 1, img_rows, img_cols)不管是用y_train还是x_test做补全时,shape后面的[0]就会被加1酿成[1],在这里是不适用的,补完了需要手工补一下。

### 多语言支持 (common lisp)为了证明不是针对Java和Python做的特殊优化,我们来个lisp的例子看下:text = '(progn (setq a (func1 0)) (setq b'输出如下:(progn (setq a (func1 0)) (setq b (func2 0)) (setq c (func3 0)) (setq d (func4 0))不光知道func1加1变func2,setq的变量,也从b酿成c,d以此类推。## 30行代码缔造奇迹上面这样神奇的功效,我们借助最新的神经网络自然处置惩罚的工具,只有30多行代码就可以搞定:import torchfrom transformers import GPT2Tokenizer, GPT2LMHeadModel加载词汇表tokenizer = GPT2Tokenizer.from_pretrained('gpt2')输入待补全的文本text = 'int idx = a.getIndex(i);nfor (int i = 0; i < N; i++) {nint attr = a.'predicted_text = text每一个只能补一个token出来,补一句话需要多次,30次是我拍脑壳的for i in range(0,30):# 以上次预测效果作为本次的输入,所谓的自回归indexed_tokens = tokenizer.encode(predicted_text)# 将读出的索引标志转化成PyTorch向量tokens_tensor = torch.tensor([indexed_tokens])# 加载模型中预训练好的权值model = GPT2LMHeadModel.from_pretrained('gpt2')# 设置为eval模式,这样就不会执行训练模式下的Dropout历程model.eval()# 使用GPU举行加速,老实地讲速度不太快tokens_tensor = tokens_tensor.to('cuda')model.to('cuda')# 举行推理with torch.no_grad(): outputs = model(tokens_tensor) predictions = outputs[0]# 获取预测的下一个子词predicted_index = torch.argmax(predictions[0, -1, :]).item()# 解码成我们都读懂的文本predicted_text = tokenizer.decode(indexed_tokens + [predicted_index])# 打印输入效果print(predicted_text)## 用来自动写作其实,上面所用的gpt-2模型,并不是给代码补全用的,用来自动写点的工具到时它的本业。好比大家可以试试,给“To be or not to be"补全下,我的效果如下“To be or not to be, the only thing that matters is that you're a good person.”再好比“I have a dream that one day”,我的效果如下“I have a dream that one day I will be able to live in a world where I can be a part of something bigger than myself.”如果不想写代码的话,可以直接在[https://transformer.huggingface.co/doc/gpt2-large](https://transformer.huggingface.co/doc/gpt2-large)中去直接试验。如下图所示,写代码写文字都可以:![gpt2](https://ata2-img.cn-hangzhou.oss-pub.aliyun-inc.com/3976635f88dd26ef7b266c1430e60650.png)## 安装情况如果想试用上面的代码的话,只需要安装transformers库就好了。

pip install transformers另外,transformers库依赖PyTorch或Tensorflow之一,我们上面的代码是基于PyTorch的,还需要安装一下PyTorch:pip3 install torch torchvision在Windows下安装下令稍有差别,需要指定版本号,例:pip3 install torch===1.3.0 torchvision===0.4.1 -f https://download.pytorch.org/whl/torch_stable.html阿里云双11亿元补助提前领,进入抽取iPhone 11 Pro:https://www.aliyun.com/1111/2019/home?utm_content=g_1000083110作者:lusing本文为云栖社区内容,未经允许不得转载。


本文关键词:博亚体育app官网,代码,补全,快餐,教程,30行,见证,奇迹,代码

本文来源:博亚体育app官网-www.sihaizulin.com