利用Olami SDK 实现语音控制计算器(iOS)

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了利用Olami SDK 实现语音控制计算器(iOS)相关的知识,希望对你有一定的参考价值。

博客链接:http://blog.csdn.net/scarlettzhao0602/article/details/76576836


一、简介: 
Olami Calculator是一款在键盘输入算式的普通计算器的基础上,增加了支持语音控制输入算式输出结果的人工智能计算器。此外还增加了多种动画效果,计算结果提示音功能,多元化主题换肤功能,以及保存计算公式,侧滑栏查看收藏记录等功能。网上也有许多语音计算器,但是打开看,只是添加了按钮提示音等,并不能识别我们对着计算器说的内容,而Olami Calculator可以实现不用手动敲击键盘,只需要把想知道结果的算式对着语音计算器说出来,例如三加四乘五、清空等,然后Olami会根据自己的一套语音识别系统帮我们准确识别出来。真正做到一款语音控制的计算器。 

二、界面直观化展示 
 技术分享 


三、Olami SDK的配置 
step 1:创建工程与导入sdk 
Olami SDK下载地址:https://github.com/olami-developers/olami-sdk-ios.git 
下载下来之后我们可以看到sdk-libs文件夹:技术分享,把libOlamiRecognizer.a静态库文件和OlamiRecognize.h对外提供接口文件拖入到我们的工程中。配置工程:技术分享 

step 2 : 创建Olami应用 
点击https://cn.olami.ai/open/website/home/home_show注册创建个人账号并登陆。进入后创建新应用,建好之后进入应用管理可以看到下面界面 
技术分享点击查看key:技术分享 


step 3:可直接导入的语音模块 
点击配置模块选择你需要的语音模块,目前有天气,二十四点,新闻,听书,数学等50~多个模块, 
技术分享,供大家选择的还是很多的。也可以点击“进入NLI系统”,再点击导入,可以看到如下界面,这里也是已经有的模块有需要的直接导入: 
技术分享 

step 4:自定制语音模块 

olami平台会为广大开发者提供一些已经写好了的语法模块,如果提供给大家的模块不能满足当下解析录入语音的需求,那么不要慌,下面就是教大家如何定制属于自己的模块。 
首先.登录,进入我的应用(没有应用的话记得创建新应用哦),然后点击“进入NLI系统”。下面是点击之后的界面,可以看到右上角有导入和新增 
技术分享

如果没有所需的模块,那么就需要点击”新增“。我们做的是计算器那就给个名字,输入calculate,提交成功后可以看到我的模块里面有了一个新模块,: 
技术分享
技术分享 
点击calculate后面的进入模块。界面中有例句库,grammar,rule,slot,template模板。 
技术分享 


现在做的计算器,那需要olami为我们识别出什么呢? 
比如:9+8+7 就这个算式而言,我们对着蜜蜜说完,是希望把数字还有符号都给我们识别出来的。

分析:”9”、”+”、”8”、”+”、”7”是我们需要系统帮我们识别并且返回给我们的变量,那就可以在slot设置5个变量,slot有五种类型(这里数字用float、符号用internal),rule是一些临时的中间表达式:[等于|结果是],modifier传递预定义好的信息,不管是slot还是rule都是为grammar服务的,要显示句子要写grammar。 
各举一个例子: 
grammar:名称:两个数结果等于多少 内容:[<再>][<数字一>][<符号一>][<数字二>][<结果是>|<等于几>] 
slot:名称:数字一 类型:float 最长:50 最短:1 
rule:名称:结果是 内容:[的]结果[是|等于[多少|几]] (|:或 []:可以省略的)。 
要更多的了解点击这里查看OSL 语法描述语言 grammar的简介:https://cn.olami.ai/wiki/?mp=overview&content=quickstart.html。 
一切就绪提交成功了之后,就可以测试了,测试无误满足需求,点击“发布”就可以使用啦!

上图:

  • 1.新增grammar: 
    技术分享

  • 2.添加语料:写出希望可以识别的一句grammar,测试并提交 
    技术分享

  • 3.最后测试无误一定要点发布 
    技术分享

  • 4.完成配置 
    以上都完成了回到应用管理,我们就可以配置自己搭建的模块了! 
    技术分享

  • 5.再测试 
    噔噔噔噔~可以使用了,变量都帮我们识别出来了! 
    技术分享 

四、代码处实现

先来看下OlamiRecognizer.h为我提供了哪些接口

 *返回结果
 */
-(void)onResult:(NSData*)result;/*
 *取消本次会话
 */-(void)onCancel;/*
 *识别失败
 */-(void)onError:(NSError *)error;/*
 *音量的大小 音频强度范围时0到100
 */-(void)onUpdateVolume:(float) volume;/***
 *开始录音
 */-(void)onBeginningOfSpeech;/**
 *结束录音
 *
 */-(void)onEndOfSpeech;@endtypedef NS_ENUM(NSInteger, LanguageLocalization) {
    LANGUAGE_SIMPLIFIED_CHINESE = 0, //简体中文
    LANGUAGE_TRADITIONA_CHINESE = 1  //繁体中文};@interface OlamiRecognizer : NSO[email protected] (nonatomic,weak) id<OlamiRecognizerDelegate> delegate;@property (nonatomic, assign,readonly) BOOL isRecording;//是否正在录音-(void)start;//开始录音-(void)stop;//结束录音,开始识别-(void)cancel;//取消本次回话/**
 *设置语系的选项,目前只支持一种,简体中文
 */-(void)setLocalization:(LanguageLocalization) location;/**
 *CUSID;//终端用户标识id,用来区分各个最终用户 例如:手机的IMEI
 *appKey;//创建应用的appkey
 *api;//要调用的API类型。现有3种:语义(nli)和分词(seg)和语音(asr)
 *appSecret;//加密的秘钥,由应用管理自动生成
 */-(void)setAuthorization:(NSString*)appKey api:(NSString*)api appSecret:(NSString*)appSecret cusid:(NSString*)CUSID;
-(void)setVADTimeoutFrontSIL:(unsigned int)value;//设置VAD前端点超时范围 1000~~10000(ms) 默认3000-(void)setVADTimeoutBackSIL:(unsigned int)value;//设置VAD后端点超时范围  1000~~10000(ms) 默认2000-(void)setInputType:(int) type;//设置是语音输入还是文字输入 0 为语音 1为文字输入-(void)setLatitudeAndLongitude:(double) latitude longitude:(double)longit;//设置地理位置,参数为经纬度-(void)sendText:(NSString*)text;//发送输入的文字

项目中,首先 初始化Olami语音识别对象并设置代理

 /**
 *CUSID;//终端用户标识id,用来区分各个最终用户 例如:手机的IMEI
 *appKey;//创建应用的appkey
 *api;//要调用的API类型。现有3种:语义(nli)和分词(seg)和语音(asr)
 *appSecret;//加密的秘钥,由应用管理自动生成
 */#define AppKey @""//查看自己的#define AppSecret @""#define macID @""-(void)setupOLAMI{
    _olamiRecognizer= [[OlamiRecognizer alloc] init];
    _olamiRecognizer.delegate = self;//此处为OlamiRecognizerDelegate

    [_olamiRecognizer setAuthorization:AppKey api:@"asr" appSecret:AppSecret cusid:macID];    //设置语言,目前只支持中文
    [_olamiRecognizer setLocalization:LANGUAGE_SIMPLIFIED_CHINESE];

}12345678910111213141516171819201234567891011121314151617181920

设置一个录音键

#pragma mark --录音键- (IBAction)recordButton:(UIButton *)sender {    //设置为语音模式(代理方法:0为语音)
    [_olamiRecognizer setInputType:0];    //开始录音
    if (_olamiRecognizer.isRecording) {//isRecording = YES 即为录音模式
        [_olamiRecognizer stop];//代理方法
        [_recordButton setImage:[UIImage imageNamed:@"话筒4.png"] forState:UIControlStateNormal];

    }else{
        [_olamiRecognizer start];//代理方法

        [_recordButton setImage:[UIImage imageNamed:@"话筒7.png"] forState:UIControlStateNormal];
        [_recordButton.layer addAnimation:[self shine] forKey:@"shine"];//添加一个动画
    }
}//发光动画- (CABasicAnimation *)shine{
    CABasicAnimation *animation =[CABasicAnimation animationWithKeyPath:@"shine"];
    animation.fromValue = [NSNumber numberWithFloat:1.0f];
    animation.toValue = [NSNumber numberWithFloat:0.0f];
    animation.autoreverses = YES;
    animation.duration = 0.5;
    animation.repeatCount = MAXFLOAT;
    animation.removedOnCompletion = NO;
    animation.fillMode = kCAFillModeForwards;
    animation.timingFunction = [CAMediaTimingFunction functionWithName:kCAMediaTimingFunctionEaseIn];    return animation;
}#pragma mark -- 录音结束(代理方法)- (void)onEndOfSpeech {
    [_recordButton setImage:[UIImage imageNamed:@"话筒4.png"] forState:UIControlStateNormal];
    [_recordButton.layer removeAnimationForKey:@"shine"];
}

识别音量

#pragma mark--NLU delegate
- (void)onUpdateVolume:(float)volume {    if (_olamiRecognizer.isRecording) {
        _waveView.present = volume/100;
    }
}

waveview: 根据sin函数 y=Asin(ωx+φ)+b    //e.g.:1.
    CGContextRef context = UIGraphicsGetCurrentContext();

    CGMutablePathRef path = CGPathCreateMutable();

    CGContextSetLineWidth(context, 3);
    CGContextSetLineCap(context, kCGLineCapRound);
    CGContextSetAllowsAntialiasing(context, true);
    CGContextSetRGBStrokeColor(context, 124 / 255.0, 145 / 255.0, 155 / 255.0, 1.0);  
    CGContextBeginPath(context);    float y= (1 - _present) * rect.size.height;

    CGPathMoveToPoint(path, NULL, -10, y);    for(float x=0;x<=rect.size.width;x++){
        y=  sin( 3*x/rect.size.width * M_PI + moveX/rect.size.width *M_PI ) *maxA + _currentLinePointY;
        CGPathAddLineToPoint(path, nil, x, y);
    }

    CGContextAddPath(context, path);

    CGContextDrawPath(context, kCGPathStroke);
    CGPathRelease(path);

界面差不多就这些,主要是看返回来的result 
调用代理这个方法-(void)onResult:(NSData*)result; 其语义分析后的结果以一个json字符串的形式回调过来,对这个字符串进行解析,就可以获得想要的变量。

#pragma mark --返回结果- (void)onResult:(NSData *)result {    NSError *error;
    __weak typeof(self) weakSelf = self;    if (error) {        NSLog(@"error is %@",error.localizedDescription);
    }else{        NSDictionary *json = [NSJSONSerialization JSONObjectWithData:result
                                                            options:NSJSONReadingMutableContainers
                                                              error:&error];        NSLog(@"json=%@",json);        if ([json[@"status"] isEqualToString:@"ok"]) {            NSDictionary *asr = [json[@"data"] objectForKey:@"asr"];            //如果asr不为空,说明目前是语音输入
            if (asr) {
                [weakSelf processASR:asr];
            }            NSDictionary *nli = [[json[@"data"] objectForKey:@"nli"] objectAtIndex:0];            NSDictionary *desc = [nli objectForKey:@"desc_obj"];            int status = [[desc objectForKey:@"status"] intValue];            if (status != 0) {// 0 说明状态正常,非零为状态不正常
                NSString *result  = [desc objectForKey:@"result"];                dispatch_async(dispatch_get_main_queue(), ^{
                    _resultLabel.text = result;//输出不正常提示
                    _resultLabel.font = [UIFont systemFontOfSize:20];
                    [_resultLabel startAnimation];

                    _showTextView.text = asr[@"result"];
                    AudioservicesPlaySystemSound (soundID);
                });

            }else{                NSDictionary *semantic = [[nli objectForKey:@"semantic"]
                                          objectAtIndex:0];                //对slot和算式的处理结果
                [weakSelf processSemantic:semantic asr:asr];                //处理modifier
                NSArray *modifierArr = [semantic objectForKey:@"modifier"];

                [weakSelf processModifier:modifierArr result:desc[@"result"]];
            }


        }else{
            _showTextView.text = @"请说出要计算的公式";
        }
    }

}#pragma mark --处理ASR语音对话节点- (void)processASR:(NSDictionary*)asrDic {    NSString *result  = [asrDic objectForKey:@"result"];    if (result.length == 0) { //如果结果为空,则弹出警告框
        [self showAlert:@"没有接受到语音,请重新输入!"];        return;
    }else{        dispatch_async(dispatch_get_main_queue(), ^{            NSString *str = [result stringByReplacingOccurrencesOfString:@" " withString:@""];//去掉字符中间的空格
            NSLog(@"answer result = %@",str);
        });
    }
}//处理semantic节点返回的slot - (void)processSemantic:(NSDictionary*)semanticDic asr:(NSDictionary *)asr {    NSMutableArray *sumArr = [NSMutableArray array];    for (NSDictionary *dic in semanticDic[@"slots"]) {        NSString *nameStr = dic[@"name"];    //遍历,然后把slot添加到数组里
    NSString *textStr = [[sumArr componentsJoinedByString:@","] stringByReplacingOccurrencesOfString:@"," withString:@""];    NSLog(@"textstr=%@",textStr);    if (![textStr isEqualToString:@""]) {
        _passString = [self replaceInputStrWithPassStr:textStr];        if (asr) {
            _lastAnswer = _resultLabel.text;//语音记录上一次记录
        }else{
            _lastAnswer = @"";
        }        //第一次运算或者不再加
        if ([_lastAnswer isEqualToString:@"error"]||[_lastAnswer isEqualToString:@""]) {            if (asr) {                dispatch_async(dispatch_get_main_queue(), ^{
                    _showTextView.text = [[textStr stringByReplacingOccurrencesOfString:@"2√" withString:@"√"] stringByAppendingString:@"="];//计算公式
                });
                textStr = [_calcultor calculatingWithString:_passString andAnswerString:@"0"];
            }else{
                textStr = [_calcultor calculatingWithString:_passString andAnswerString:@"0"];
            }        //有结果考虑再运算的步骤
        }else{            //有结果再运算的情况
            UniChar c = [_passString characterAtIndex:0];            if (c ==‘-‘|| c == ‘+‘||c == ‘x‘||c ==‘/‘)
            {                dispatch_async(dispatch_get_main_queue(), ^{
                    _showTextView.text = [[_lastAnswer stringByAppendingString:[textStr stringByReplacingOccurrencesOfString:@"2√" withString:@"√"]] stringByAppendingString:@"="];//计算公式
                });

                textStr = [_calcultor calculatingWithString:[_lastAnswer stringByAppendingString:_passString] andAnswerString:@"0"];//
            }            //有结果但是不想再运算
            else{                dispatch_async(dispatch_get_main_queue(), ^{
                    _showTextView.text = [[textStr stringByReplacingOccurrencesOfString:@"2√" withString:@"√"] stringByAppendingString:@"="];//计算公式
                });
                textStr = [_calcultor calculatingWithString:_passString andAnswerString:@"0"];
            }

        }        dispatch_async(dispatch_get_main_queue(), ^{
                AudioServicesPlaySystemSound (soundID1);

                _resultLabel.font = [UIFont systemFontOfSize:50.0];
                _resultLabel.text = textStr;
        });

        [_resultLabel startAnimation];
    }
}

后台返回:语音内容是显示在asr字段里,大家可能会有疑问后台怎么识别的我们语音的内容,这是由于我们之前在olami平台创建新应用后导入了一套识别相应内容的grammar,这样olami的语义解析功能会为我们自动识别出想要得到的变量内容。

比如我说:3+6乘九等于几? 
对应grammar语法:[<再>][<数字一>]<符号一><数字二><符号二><数字三>[<结果>|<等于>] 
返回结果:

json={    data =     {        asr =         {            final = 1;            result = "\U4e09\U52a0\U516d\U4e58\U4e5d\U7b49\U4e8e\U51e0";
            "speech_status" = 0;            status = 0;
        };
        nli =         (
                        {                "desc_obj" =                 {
                    status = 0;
                };
                semantic =                 (
                                        {
                        app = calculator;
                        customer = 59530feb84aea6f385319c65;
                        input = "\U4e09\U52a0\U516d\U4e58\U4e5d\U7b49\U4e8e\U51e0";
                        modifier =                         (
                        );
                        slots =                         (
                                                        {
                                name = number3;                                "num_detail" =                                 {                                    "recommend_value" = 9;                                    type = float;
                                };
                                value = "\U4e5d";
                            },
                                                        {
                                name = number1;                                "num_detail" =                                 {                                    "recommend_value" = 3;                                    type = float;
                                };
                                value = "\U4e09";
                            },
                                                        {
                                name = number2;                                "num_detail" =                                 {                                    "recommend_value" = 6;                                    type = float;
                                };
                                value = "\U516d";
                            },
                                                        {
                                name = symbol1;
                                value = "+";
                            },
                                                        {
                                name = symbol2;
                                value = x;
                            }
                        );
                    }
                );                type = calculator;
            }
        );
    };
    status = ok;
}

再加三等于几? 
对应grammar:[<再>][<数字一>][<符号一>][<数字二>][<结果>|<等于>] 、 
后台返回json字段:

json={    data =     {        asr =         {            final = 1;            result = "\U518d\U52a0\U4e09\U7b49\U4e8e\U51e0";
            "speech_status" = 0;            status = 0;
        };
        nli =         (
                        {                "desc_obj" =                 {
                    status = 0;
                };
                semantic =                 (
                                        {
                        app = calculator;
                        customer = 59530feb84aea6f385319c65;
                        input = "\U518d\U52a0\U4e09\U7b49\U4e8e\U51e0";
                        modifier =                         (
                        );
                        slots =                         (
                                                        {
                                name = again;
                                value = a;
                            },
                                                        {
                                name = number2;                                "num_detail" =                                 {                                    "recommend_value" = 3;                                    type = float;
                                };
                                value = "\U4e09";
                            },
                                                        {
                                name = symbol1;
                                value = "+";
                            }
                        );
                    }
                );                type = calculator;
            }
        );
    };
    status = ok;
}

计算过程:涉及到算法数据结构堆栈问题,大概思路设置优先级,设置两个栈,一个数据栈,一个运算符栈,在运算符栈底添加#方便处理。获取表达式第一个元素如果是数据添加到数据栈中,元素如果是运算符,那么每次都要跟运算符栈定元素比较优先级,如果取得的运算符的优先级大于栈顶元素优先级时,该运算符直接进栈,优先级不大的话,就要取栈顶运算符优先运算,最后碰到#停止。如果有记忆上一轮结果的话,结果需要放到数据栈栈进行下一次处理



代码下载地址:https://github.com/zhaoshihui/calculator_olami_ios.git

以上是关于利用Olami SDK 实现语音控制计算器(iOS)的主要内容,如果未能解决你的问题,请参考以下文章

使用Olami SDK 语音控制一个支持HomeKit的智能家居的iOS程序

语音识别,语义理解一站式解决(android平台&olami sdk)

语音识别,语义理解一站式解决之二(android,olami)

基于javascript用olamisdk实现web端语音识别语义理解(speex压缩)

语音识别完成诗句的查询功能,iOS AVSpeechSynthesis语音输出结果的诗歌APP

在ubuntu上利用科大讯飞的SDK实现语音识别-语义识别等功能