(十二)即时通讯之XMPPFramework文字语音图片聊天

前言

这也是本人第一次琢磨关于即时通讯方面的内容,结合网上查看的相关资料搭建出来的仿微信小demo,如有意见请多多指教

具体项目可以在githubWeiChat下载进行查看,如若各位看官老爷觉得还可以请点star

续前篇(十)即时通讯之XMPPFramework登陆注册

续前篇(十一)即时通讯之XMPPFramework电子名片

续前篇(十二)即时通讯之XMPPFramework花名册

服务器地址
**Attention,这里需要改成自己的服务器地址和端口号
并且数据库和服务器一定要开启哟,不然没法登陆的哟**
#ifdef DEBUG
#define kHostName @"192.168.199.111"
//#define kHostName @"127.0.0.1"
#define kHostPort 5222
#else
#define kHostNanme @""
#define kHostPort 5222
#endif

先来谈谈做聊天功能的感想,其实吧,这个也不复杂,主要是界面搭建过于麻烦,先来说功能实现:

1.关于聊天功能,当日这个包括有文字,语音,图片,还有文件传输,视频音频聊天,这些我就没写了,就实现了文字,语音,图片这三个部分,后面的再写也没多大意思了.
2.其实关于聊天说到底就一个方法sendElement:(NSXMLElement *)element,后面跟上你要发送的内容就行了.
3.既然有各种不同的聊天内容,那就要加上关键字进行判断来区分是文字是语音还是图片.
4.这区分不同内容也有好几种方式
5.对于发送内容有两种方式,当日是对于语音图片,这种大容量的内容来说的,第一种是使用XML来携带内容,这种方式对服务器压力很大,因为一旦携带的内容过大,那么就会使传输速度变得很慢.另一种是通过文件服务器的方式,通过put将要传输方式发送到文件服务器,然后发送URL就可以了,对于文件的传输与接收都是通过上传下载来完成.这两种方式都有实现,可以看demo.
6.聊天功能最重要的就是你要知道你传输的message的结构是什么样的,由于是用XML组织的,所以很容易就能知道你传输的内容组织,这样能方便你进行区分传输内容以及扩展你想要的一些功能,还要做一些回执操作,以及类似心跳包之类的操作.

再来说说界面实现:

1.首先重中之重是得选择一个好的设计模式了,这里采用MVVM,将原先的数据模型分为数据模型加frame模型,其业务逻辑分开,在获取数据时,就对数据和frame进行计算,再在单元格初始化的时候进行赋值.
2.其次是frame的计算,因为有文字,图片,语音所以得慢慢计算单元格的自适应高度.
3.对于键盘的处理,这个其实蛮复杂的,尤其是点击发文件按钮后,弹出的一个自定义模块,这个你们看demo吧,不过多阐述了,这里主要讲的是功能实现,界面实现就发挥你们的想象力好了.
4.另外还有对于界面处理的诸多细节,demo中也有部分未处理好,万望谅解.

看图:
这里高度有点不对,但是并没找到原因
注意,这里需要模拟器和真机进行测试,展示给读者的是模拟器,真机就没有展示出来了

(十二)即时通讯之XMPPFramework文字语音图片聊天_第1张图片
文字聊天.gif

图片聊天.gif
(十二)即时通讯之XMPPFramework文字语音图片聊天_第2张图片
语音聊天

丑话说在中间,聊天界面还存在有一个bug,暂且还没找出来为什么,但不影响使用

本篇讲的是聊天功能中的聊天功能的实现,内容有点长,请耐心观看.

1.聊天模块激活

没什么好说的,跟前面的一样,聊天模块激活

        /**
         *  XMPPMessageArchiving聊天模块激活
         */
        self.archivingStorage = [XMPPMessageArchivingCoreDataStorage sharedInstance];
        self.messageArchiving = [[XMPPMessageArchiving alloc] initWithMessageArchivingStorage:self.archivingStorage dispatchQueue:dispatch_get_main_queue()];
        [self.messageArchiving activate:self.stream];

2.发送文字聊天内容

#pragma mark - TextView的代理方法 点击renturn发送信息
#pragma mark 发送文字聊天信息
- (void)textViewDidChange:(UITextView *)textView {
    if ([textView.text hasSuffix:@"\n"]) {
        NSLog(@"已经发送消息");
        [self sendMessageWithText:textView.text bodyType:@"text"];
        textView.text = nil;
    }
}

- (void)sendMessageWithText:(NSString *)text bodyType:(NSString *)type {
//    XMPPMessage *message = [XMPPMessage messageWithType:@"chat" to:self.jidChatTo.jid];
//    // 设置bodyType为text
//    [message addAttributeWithName:@"bodyType" stringValue:type];
//    [message addBody:text];
//    [[XMPPManager sharedmanager].stream sendElement:message];
    
    XMPPMessage* message = [[XMPPMessage alloc] initWithType:@"chat" to:self.jidChatTo.jid];
    
    [message addBody:type];
    
    // 设置节点内容
    XMPPElement *attachment = [XMPPElement elementWithName:@"attachment" stringValue:text];
    // 包含子节点
    [message addChild:attachment];
    [[XMPPManager sharedmanager].stream sendElement:message];
    
}

3.获取文字聊天内容

- (void)relodChatMessage {
    XMPPManager *manager = [XMPPManager sharedmanager];
    NSManagedObjectContext *context = manager.archivingStorage.mainThreadManagedObjectContext;
    NSFetchRequest *request = [NSFetchRequest fetchRequestWithEntityName:@"XMPPMessageArchiving_Message_CoreDataObject"];
    
    NSPredicate *predicate = [NSPredicate predicateWithFormat:@"streamBareJidStr=%@ AND bareJidStr=%@",[UserManager sharedmanager].jid,self.jidChatTo.jid.bare];
    
    NSSortDescriptor *timeSort = [NSSortDescriptor sortDescriptorWithKey:@"timestamp" ascending:YES];
    request.sortDescriptors = @[timeSort];
    request.predicate = predicate;
    
    self.resultController = [[NSFetchedResultsController alloc] initWithFetchRequest:request managedObjectContext:context sectionNameKeyPath:nil cacheName:nil];
    self.resultController.delegate = self;
    NSError *error = nil;
    if ([self.resultController performFetch:&error]) {
        NSLog(@"%@",error);
    }
    //NSLog(@"-----%@",self.resultController.fetchedObjects);
    [self getChatMsgArray];
}

#pragma mark - NSFetchedResultsControllerDelegate
// 代理方法,当数据发生变化时调用该方法
- (void)controller:(NSFetchedResultsController *)controller didChangeObject:(id)anObject atIndexPath:(nullable NSIndexPath *)indexPath forChangeType:(NSFetchedResultsChangeType)type newIndexPath:(nullable NSIndexPath *)newIndexPath {
    [self relodChatMessage];
}

// 此处获取数据库中的会话数组,对模型类进行赋值,并且设置其单个会话的frame
/**
 *  采用MVVM的设计模式
    提供两个模型:
        >数据模型:存放文字数据\图片数据
        >frame模型:存放数据模型\所有子控件的frame\cell的高度
    其中cell直接拥有一个frame模型(不要直接拥有数据模型).即:使fram模型拥有数据模型
    在cell赋值的时候直接赋值frame模型
 */
- (void)getChatMsgArray {
    [self.chatMsgArray removeAllObjects];
    for (XMPPMessageArchiving_Message_CoreDataObject *msg in self.resultController.fetchedObjects) {
        
        ChatMessageModel *messageModel = [[ChatMessageModel alloc] init];
        // 将模型中的上一条信息的时间戳取出来放到数据模型中处理
        if (self.chatMsgArray.count) {
            ChatFrameModel *preChatFrameModel = self.chatMsgArray.lastObject;
            messageModel.preMsgDate = preChatFrameModel.msg.msg.timestamp;
        }
        // 数据模型的setter
        messageModel.msg = msg;
        
        ChatFrameModel *frameModel = [[ChatFrameModel alloc] init];
        // frame模型的setter
        frameModel.msg = messageModel;
        [self.chatMsgArray addObject:frameModel];
 
        // 图片浏览器
        if ([msg.message.body isEqualToString:@"image"]) {
            XMPPElement *node = msg.message.children.lastObject;
            // 取出消息的解码
            NSString *base64str = node.stringValue;
            NSData *data = [[NSData alloc]initWithBase64EncodedString:base64str options:0];
            UIImage *image = [[UIImage alloc]initWithData:data];
            [self.chatImageArray addObject:image];
        } 
    }
    [self.myTab reloadData];
    [self scrollToBottom];
}

关于业务逻辑我就不展示了,感兴趣的可以查看demo

4.发送语音聊天

#pragma mark ******************************
#pragma mark -- 发送语音聊天信息
- (IBAction)sendVoiceBtn:(UIButton *)sender {
    if (CGRectGetMaxY(self.moreView.frame) == [UIScreen mainScreen].bounds.size.height) {
        self.moreView.frame = kMoreInputViewOriFrame;
        [self.chatTextView resignFirstResponder];
    }
    if (self.inputViewBottonConstraint.constant == 200) {
        [self.chatTextView becomeFirstResponder];
        [self dissmissMoreInputViewWithAniation:YES];
    }
    if (!self.sendVoiceBtn.hidden) {
        [self.chatTextView becomeFirstResponder];
        //self.inputViewBottonConstraint.constant = 0;
    } else {
        if ([self.chatTextView isFirstResponder]) {
            [self.chatTextView resignFirstResponder];
        }
    }
    self.sendVoiceBtn.hidden = sender.selected;
    sender.selected = !sender.selected;
    UIImage *normalImage = sender.selected ? [UIImage imageNamed:@"ToolViewKeyboard"] : [UIImage imageNamed:@"ToolViewInputVoice"];
    UIImage *highlightImage = sender.selected ? [UIImage imageNamed:@"ToolViewKeyboardHL"] : [UIImage imageNamed:@"ToolViewInputVoiceHL"];
    [sender setImage:normalImage forState:UIControlStateNormal];
    [sender setImage:highlightImage forState:UIControlStateHighlighted];
}

// 在按钮上按下按钮开始录音
- (IBAction)sendTouchDown:(UIButton *)sender {
    NSLog(@"%s, line = %d", __FUNCTION__, __LINE__);
    self.sendVoiceBtn.backgroundColor = [UIColor lightGrayColor];
    // 设置提示框
    popVoiceView *voiceV = [popVoiceView voiceAlertPopView];
    voiceV.bounds = CGRectMake(0, 0, 150, 150);
    CGFloat centerX = [UIScreen mainScreen].bounds.size.width / 2.0;
    CGFloat centerY = [UIScreen mainScreen].bounds.size.height / 2.0;
    voiceV.center = CGPointMake(centerX, centerY);
    self.voiceView = voiceV;
    [self.view addSubview:self.voiceView];
    
    // 录音
    [self.audioRecorder record];
}

// 在按钮上抬起手指发送语音
- (IBAction)sendTouchUpInside:(UIButton *)sender {
    NSLog(@"%s, line = %d", __FUNCTION__, __LINE__);
    self.sendVoiceBtn.backgroundColor = BackGround243Color;
    NSTimeInterval time = self.audioRecorder.currentTime;
    
    if (time < 1.5) {
        // 时间小于1.5秒不发送,大于1.5秒才发送
        // 停止录音
        [self.audioRecorder stop];
        // 删除录音文件
        [self.audioRecorder deleteRecording];
        
        self.voiceView.voiceImageV.image = [UIImage imageNamed:@"QQ20160818-3"];
        self.voiceView.voiceTitleLab.text = @"说话时间太短";
        
    } else {
        // 停止录音
        [self.audioRecorder stop];
        
        // 发送语音
        NSString *urlStr = [NSSearchPathForDirectoriesInDomains(NSDocumentDirectory, NSUserDomainMask, YES) lastObject];
        urlStr = [urlStr stringByAppendingPathComponent:kRecordAudioFile];
        NSData *voiceData = [NSData dataWithContentsOfFile:urlStr];
        [self sendVoiceMessageWithData:voiceData bodyType:@"voice" withDuringTime:time];
    }
    
    [self.voiceView removeFromSuperview];

}
- (void)sendVoiceMessageWithData:(NSData *)data bodyType:(NSString *)type withDuringTime:(NSTimeInterval)time{
    XMPPMessage* message = [[XMPPMessage alloc] initWithType:@"chat" to:self.jidChatTo.jid];
    // 将时间传过去
    NSString *timeStr = [NSString stringWithFormat:@"%f",time];
    [message addAttributeWithName:@"duringTime" stringValue:timeStr];
    [message addBody:type];

    NSString *base64str = [data base64EncodedStringWithOptions:0];

    XMPPElement *attachment = [XMPPElement elementWithName:@"attachment" stringValue:base64str];

    [message addChild:attachment];
    [[XMPPManager sharedmanager].stream sendElement:message];
}

// 手指拖到按钮外面将要取消录音
- (IBAction)sendDragOutside:(UIButton *)sender {
    NSLog(@"%s, line = %d", __FUNCTION__, __LINE__);
    self.voiceView.voiceImageV.image = [UIImage imageNamed:@"QQ20160818-2"];
    self.voiceView.voiceTitleLab.text = @"松开手指, 取消发送";
    self.voiceView.voiceTitleLab.backgroundColor = [UIColor colorWithRed:0.826 green:0.0 blue:0.0 alpha:1.0];
}

// 在按钮外面抬起手指取消录音
- (IBAction)sendTouchUpOutside:(UIButton *)sender {
    NSLog(@"%s, line = %d", __FUNCTION__, __LINE__);
    [self.voiceView removeFromSuperview];
    
    // 停止录音
    [self.audioRecorder stop];
    // 删除录音文件
    [self.audioRecorder deleteRecording];
}

// 设置音频保存路径
- (NSURL *)getSavePath {
    NSString *urlStr = [NSSearchPathForDirectoriesInDomains(NSDocumentDirectory, NSUserDomainMask, YES) lastObject];
    urlStr = [urlStr stringByAppendingPathComponent:kRecordAudioFile];
    NSURL *url = [NSURL URLWithString:urlStr];
    
    return url;
}

/**
 *  设置音频会话
    注意:一定要添加音频会话,不然真机上的录音时间不对,并且不能进行播放音频
 */
-(void)setAudioSession{
    AVAudioSession *audioSession=[AVAudioSession sharedInstance];
    //设置为播放和录音状态,以便可以在录制完之后播放录音
    [audioSession setCategory:AVAudioSessionCategoryPlayAndRecord error:nil];
    [audioSession setActive:YES error:nil];
}

// 录音文件设置
- (NSDictionary *)getAudioSetting {
    NSMutableDictionary *dicM = [NSMutableDictionary dictionary];
    // 设置录音格式
    [dicM setObject:@(kAudioFormatLinearPCM) forKey:AVFormatIDKey];
    // 设置录音采样率,8000是电话采样率,对于一般录音已经够了
    [dicM setObject:@(8000) forKey:AVSampleRateKey];
    // 设置通道,这里采用单声道
    [dicM setObject:@(1) forKey:AVNumberOfChannelsKey];
    // 每个采样点位数,分别为8,16,24,32
    [dicM setObject:@(8) forKey:AVLinearPCMBitDepthKey];
    // 是否使用浮点数采样
    [dicM setObject:@(YES) forKey:AVLinearPCMIsFloatKey];
    // ...其他设置
    return dicM;
}

#pragma mark -- AVAudioRecorderDelegate
// 录音完成
- (void)audioRecorderDidFinishRecording:(AVAudioRecorder *)recorder successfully:(BOOL)flag {
    //NSLog(@"录音完毕");
}
#pragma mark -- AVAudioPlayerDelegate

- (void)audioPlayerDidFinishPlaying:(AVAudioPlayer *)player successfully:(BOOL)flag {
    NSLog(@"播放完毕");
}

5.播放语音

     if ([chatFrameModel.msg.msg.message.body isEqualToString:@"voice"]) {
        if (self.audioPlayer.isPlaying) {
            [self.audioPlayer stop];
        }
        
        XMPPElement *node = chatFrameModel.msg.msg.message.children.lastObject;
        // 取出消息的解码
        NSString *base64str = node.stringValue;
        NSData *data = [[NSData alloc]initWithBase64EncodedString:base64str options:0];
        
        self.audioPlayer = [[AVAudioPlayer alloc] initWithData:data error:NULL];
        self.audioPlayer.delegate = self;
        [self.audioPlayer play];
      }

6.发送图片信息

XMPPMessage* message = [[XMPPMessage alloc] initWithType:@"chat" to:self.jidChatTo.jid];
    // 设置bodyType类型值为image
    //[message addAttributeWithName:@"bodyType" stringValue:type];
#warning 此处采用图片,语音等传输方式为XML携带信息,所以传输速度慢,因为未搭建文件服务器,所以采用该种办法,建议采用文件服务器方式,传递URL
    // 该处设置message的body为文件类型,后面对文件类型的判断由body来实现,其中尝试使用[message addAttributeWithName:@"bodyType" stringValue:type];来实现文件类型的判断但未成功,原因暂时未知
    [message addBody:type];
    
    // 转换成base64的编码
    NSString *base64str = [data base64EncodedStringWithOptions:0];
    
    // 设置节点内容
    XMPPElement *attachment = [XMPPElement elementWithName:@"attachment" stringValue:base64str];
    
    // 包含子节点
    [message addChild:attachment];

#warning 此处采用的是文件服务器方式传输,但由于未建立文件服务器,所以传输对象为写死的一图片,语音等文件的url,仅供测试使用
    //[message addBody:@"http://img5.duitang.com/uploads/item/201407/24/20140724054410_5ctE2.jpeg"];
    // 发送图片消息
    [[XMPPManager sharedmanager].stream sendElement:message];

7.会话内容回执
通过单元格代理方式来获得会话内容回执进行音频播放和图片浏览

#pragma mark ******************************
#pragma mark --ChatCellDelegate
- (void)getCurrentChatCell:(ChatTableViewCell *)cell withCurrentChatFrame:(ChatFrameModel *)chatFrameModel {
    //NSString *chatType = [chatFrameModel.msg.msg.message attributeStringValueForName:@"bodyType"];
    if ([chatFrameModel.msg.msg.message.body isEqualToString:@"image"]) {
        MWPhotoBrowser *browser = [[MWPhotoBrowser alloc] initWithDelegate:self];
        NSUInteger index = 0;
        // 如果当前单元格中的url存在,则在数组中找到与之匹配的,并找出其序号
        if (chatFrameModel.msg.msg.body) {
            index = [self.chatImageArray indexOfObject:chatFrameModel.msg.msg.body];
        }
        // 设置图片查看器当前查看的位置
        [browser setCurrentPhotoIndex:index];
        // 跳转到图片查看器
        [self.navigationController pushViewController:browser animated:YES];
    } else if ([chatFrameModel.msg.msg.message.body isEqualToString:@"voice"]) {
        if (self.audioPlayer.isPlaying) {
            [self.audioPlayer stop];
        }
        
        XMPPElement *node = chatFrameModel.msg.msg.message.children.lastObject;
        // 取出消息的解码
        NSString *base64str = node.stringValue;
        NSData *data = [[NSData alloc]initWithBase64EncodedString:base64str options:0];
        
        self.audioPlayer = [[AVAudioPlayer alloc] initWithData:data error:NULL];
        self.audioPlayer.delegate = self;
        [self.audioPlayer play];
    }
    
}

8.键盘高度

#pragma mak -- 更改键盘高度
- (void)keyboardFrameChange:(NSNotification *)sender {
    // 获得键盘改变后的frame
    NSValue *keyboardFrame = sender.userInfo[UIKeyboardFrameEndUserInfoKey];
    CGRect rect = [keyboardFrame CGRectValue];
    CGFloat height = CGRectGetHeight(rect);
    // 计算聊天窗口的底部偏移量
    if (rect.origin.y == [UIScreen mainScreen].bounds.size.height) {
        self.inputViewBottonConstraint.constant = 0;
    } else {
        self.inputViewBottonConstraint.constant = height;
    }
    
    [UIView animateWithDuration:0.25 animations:^{
        [self.view layoutIfNeeded];
    }];
    [self scrollToBottom];
}

你可能感兴趣的:((十二)即时通讯之XMPPFramework文字语音图片聊天)