前言
这也是本人第一次琢磨关于即时通讯方面的内容,结合网上查看的相关资料搭建出来的仿微信小demo,如有意见请多多指教
具体项目可以在githubWeiChat下载进行查看,如若各位看官老爷觉得还可以请点star
续前篇(十)即时通讯之XMPPFramework登陆注册
续前篇(十一)即时通讯之XMPPFramework电子名片
续前篇(十二)即时通讯之XMPPFramework花名册
**Attention,这里需要改成自己的服务器地址和端口号
并且数据库和服务器一定要开启哟,不然没法登陆的哟**
#ifdef DEBUG
#define kHostName @"192.168.199.111"
//#define kHostName @"127.0.0.1"
#define kHostPort 5222
#else
#define kHostNanme @""
#define kHostPort 5222
#endif
先来谈谈做聊天功能的感想,其实吧,这个也不复杂,主要是界面搭建过于麻烦,先来说功能实现:
1.关于聊天功能,当日这个包括有文字,语音,图片,还有文件传输,视频音频聊天,这些我就没写了,就实现了文字,语音,图片这三个部分,后面的再写也没多大意思了.
2.其实关于聊天说到底就一个方法sendElement:(NSXMLElement *)element,后面跟上你要发送的内容就行了.
3.既然有各种不同的聊天内容,那就要加上关键字进行判断来区分是文字是语音还是图片.
4.这区分不同内容也有好几种方式
5.对于发送内容有两种方式,当日是对于语音图片,这种大容量的内容来说的,第一种是使用XML来携带内容,这种方式对服务器压力很大,因为一旦携带的内容过大,那么就会使传输速度变得很慢.另一种是通过文件服务器的方式,通过put将要传输方式发送到文件服务器,然后发送URL就可以了,对于文件的传输与接收都是通过上传下载来完成.这两种方式都有实现,可以看demo.
6.聊天功能最重要的就是你要知道你传输的message的结构是什么样的,由于是用XML组织的,所以很容易就能知道你传输的内容组织,这样能方便你进行区分传输内容以及扩展你想要的一些功能,还要做一些回执操作,以及类似心跳包之类的操作.
再来说说界面实现:
1.首先重中之重是得选择一个好的设计模式了,这里采用MVVM,将原先的数据模型分为数据模型加frame模型,其业务逻辑分开,在获取数据时,就对数据和frame进行计算,再在单元格初始化的时候进行赋值.
2.其次是frame的计算,因为有文字,图片,语音所以得慢慢计算单元格的自适应高度.
3.对于键盘的处理,这个其实蛮复杂的,尤其是点击发文件按钮后,弹出的一个自定义模块,这个你们看demo吧,不过多阐述了,这里主要讲的是功能实现,界面实现就发挥你们的想象力好了.
4.另外还有对于界面处理的诸多细节,demo中也有部分未处理好,万望谅解.
看图:
这里高度有点不对,但是并没找到原因
注意,这里需要模拟器和真机进行测试,展示给读者的是模拟器,真机就没有展示出来了
丑话说在中间,聊天界面还存在有一个bug,暂且还没找出来为什么,但不影响使用
本篇讲的是聊天功能中的聊天功能的实现,内容有点长,请耐心观看.
1.聊天模块激活
没什么好说的,跟前面的一样,聊天模块激活
/**
* XMPPMessageArchiving聊天模块激活
*/
self.archivingStorage = [XMPPMessageArchivingCoreDataStorage sharedInstance];
self.messageArchiving = [[XMPPMessageArchiving alloc] initWithMessageArchivingStorage:self.archivingStorage dispatchQueue:dispatch_get_main_queue()];
[self.messageArchiving activate:self.stream];
2.发送文字聊天内容
#pragma mark - TextView的代理方法 点击renturn发送信息
#pragma mark 发送文字聊天信息
- (void)textViewDidChange:(UITextView *)textView {
if ([textView.text hasSuffix:@"\n"]) {
NSLog(@"已经发送消息");
[self sendMessageWithText:textView.text bodyType:@"text"];
textView.text = nil;
}
}
- (void)sendMessageWithText:(NSString *)text bodyType:(NSString *)type {
// XMPPMessage *message = [XMPPMessage messageWithType:@"chat" to:self.jidChatTo.jid];
// // 设置bodyType为text
// [message addAttributeWithName:@"bodyType" stringValue:type];
// [message addBody:text];
// [[XMPPManager sharedmanager].stream sendElement:message];
XMPPMessage* message = [[XMPPMessage alloc] initWithType:@"chat" to:self.jidChatTo.jid];
[message addBody:type];
// 设置节点内容
XMPPElement *attachment = [XMPPElement elementWithName:@"attachment" stringValue:text];
// 包含子节点
[message addChild:attachment];
[[XMPPManager sharedmanager].stream sendElement:message];
}
3.获取文字聊天内容
- (void)relodChatMessage {
XMPPManager *manager = [XMPPManager sharedmanager];
NSManagedObjectContext *context = manager.archivingStorage.mainThreadManagedObjectContext;
NSFetchRequest *request = [NSFetchRequest fetchRequestWithEntityName:@"XMPPMessageArchiving_Message_CoreDataObject"];
NSPredicate *predicate = [NSPredicate predicateWithFormat:@"streamBareJidStr=%@ AND bareJidStr=%@",[UserManager sharedmanager].jid,self.jidChatTo.jid.bare];
NSSortDescriptor *timeSort = [NSSortDescriptor sortDescriptorWithKey:@"timestamp" ascending:YES];
request.sortDescriptors = @[timeSort];
request.predicate = predicate;
self.resultController = [[NSFetchedResultsController alloc] initWithFetchRequest:request managedObjectContext:context sectionNameKeyPath:nil cacheName:nil];
self.resultController.delegate = self;
NSError *error = nil;
if ([self.resultController performFetch:&error]) {
NSLog(@"%@",error);
}
//NSLog(@"-----%@",self.resultController.fetchedObjects);
[self getChatMsgArray];
}
#pragma mark - NSFetchedResultsControllerDelegate
// 代理方法,当数据发生变化时调用该方法
- (void)controller:(NSFetchedResultsController *)controller didChangeObject:(id)anObject atIndexPath:(nullable NSIndexPath *)indexPath forChangeType:(NSFetchedResultsChangeType)type newIndexPath:(nullable NSIndexPath *)newIndexPath {
[self relodChatMessage];
}
// 此处获取数据库中的会话数组,对模型类进行赋值,并且设置其单个会话的frame
/**
* 采用MVVM的设计模式
提供两个模型:
>数据模型:存放文字数据\图片数据
>frame模型:存放数据模型\所有子控件的frame\cell的高度
其中cell直接拥有一个frame模型(不要直接拥有数据模型).即:使fram模型拥有数据模型
在cell赋值的时候直接赋值frame模型
*/
- (void)getChatMsgArray {
[self.chatMsgArray removeAllObjects];
for (XMPPMessageArchiving_Message_CoreDataObject *msg in self.resultController.fetchedObjects) {
ChatMessageModel *messageModel = [[ChatMessageModel alloc] init];
// 将模型中的上一条信息的时间戳取出来放到数据模型中处理
if (self.chatMsgArray.count) {
ChatFrameModel *preChatFrameModel = self.chatMsgArray.lastObject;
messageModel.preMsgDate = preChatFrameModel.msg.msg.timestamp;
}
// 数据模型的setter
messageModel.msg = msg;
ChatFrameModel *frameModel = [[ChatFrameModel alloc] init];
// frame模型的setter
frameModel.msg = messageModel;
[self.chatMsgArray addObject:frameModel];
// 图片浏览器
if ([msg.message.body isEqualToString:@"image"]) {
XMPPElement *node = msg.message.children.lastObject;
// 取出消息的解码
NSString *base64str = node.stringValue;
NSData *data = [[NSData alloc]initWithBase64EncodedString:base64str options:0];
UIImage *image = [[UIImage alloc]initWithData:data];
[self.chatImageArray addObject:image];
}
}
[self.myTab reloadData];
[self scrollToBottom];
}
关于业务逻辑我就不展示了,感兴趣的可以查看demo
4.发送语音聊天
#pragma mark ******************************
#pragma mark -- 发送语音聊天信息
- (IBAction)sendVoiceBtn:(UIButton *)sender {
if (CGRectGetMaxY(self.moreView.frame) == [UIScreen mainScreen].bounds.size.height) {
self.moreView.frame = kMoreInputViewOriFrame;
[self.chatTextView resignFirstResponder];
}
if (self.inputViewBottonConstraint.constant == 200) {
[self.chatTextView becomeFirstResponder];
[self dissmissMoreInputViewWithAniation:YES];
}
if (!self.sendVoiceBtn.hidden) {
[self.chatTextView becomeFirstResponder];
//self.inputViewBottonConstraint.constant = 0;
} else {
if ([self.chatTextView isFirstResponder]) {
[self.chatTextView resignFirstResponder];
}
}
self.sendVoiceBtn.hidden = sender.selected;
sender.selected = !sender.selected;
UIImage *normalImage = sender.selected ? [UIImage imageNamed:@"ToolViewKeyboard"] : [UIImage imageNamed:@"ToolViewInputVoice"];
UIImage *highlightImage = sender.selected ? [UIImage imageNamed:@"ToolViewKeyboardHL"] : [UIImage imageNamed:@"ToolViewInputVoiceHL"];
[sender setImage:normalImage forState:UIControlStateNormal];
[sender setImage:highlightImage forState:UIControlStateHighlighted];
}
// 在按钮上按下按钮开始录音
- (IBAction)sendTouchDown:(UIButton *)sender {
NSLog(@"%s, line = %d", __FUNCTION__, __LINE__);
self.sendVoiceBtn.backgroundColor = [UIColor lightGrayColor];
// 设置提示框
popVoiceView *voiceV = [popVoiceView voiceAlertPopView];
voiceV.bounds = CGRectMake(0, 0, 150, 150);
CGFloat centerX = [UIScreen mainScreen].bounds.size.width / 2.0;
CGFloat centerY = [UIScreen mainScreen].bounds.size.height / 2.0;
voiceV.center = CGPointMake(centerX, centerY);
self.voiceView = voiceV;
[self.view addSubview:self.voiceView];
// 录音
[self.audioRecorder record];
}
// 在按钮上抬起手指发送语音
- (IBAction)sendTouchUpInside:(UIButton *)sender {
NSLog(@"%s, line = %d", __FUNCTION__, __LINE__);
self.sendVoiceBtn.backgroundColor = BackGround243Color;
NSTimeInterval time = self.audioRecorder.currentTime;
if (time < 1.5) {
// 时间小于1.5秒不发送,大于1.5秒才发送
// 停止录音
[self.audioRecorder stop];
// 删除录音文件
[self.audioRecorder deleteRecording];
self.voiceView.voiceImageV.image = [UIImage imageNamed:@"QQ20160818-3"];
self.voiceView.voiceTitleLab.text = @"说话时间太短";
} else {
// 停止录音
[self.audioRecorder stop];
// 发送语音
NSString *urlStr = [NSSearchPathForDirectoriesInDomains(NSDocumentDirectory, NSUserDomainMask, YES) lastObject];
urlStr = [urlStr stringByAppendingPathComponent:kRecordAudioFile];
NSData *voiceData = [NSData dataWithContentsOfFile:urlStr];
[self sendVoiceMessageWithData:voiceData bodyType:@"voice" withDuringTime:time];
}
[self.voiceView removeFromSuperview];
}
- (void)sendVoiceMessageWithData:(NSData *)data bodyType:(NSString *)type withDuringTime:(NSTimeInterval)time{
XMPPMessage* message = [[XMPPMessage alloc] initWithType:@"chat" to:self.jidChatTo.jid];
// 将时间传过去
NSString *timeStr = [NSString stringWithFormat:@"%f",time];
[message addAttributeWithName:@"duringTime" stringValue:timeStr];
[message addBody:type];
NSString *base64str = [data base64EncodedStringWithOptions:0];
XMPPElement *attachment = [XMPPElement elementWithName:@"attachment" stringValue:base64str];
[message addChild:attachment];
[[XMPPManager sharedmanager].stream sendElement:message];
}
// 手指拖到按钮外面将要取消录音
- (IBAction)sendDragOutside:(UIButton *)sender {
NSLog(@"%s, line = %d", __FUNCTION__, __LINE__);
self.voiceView.voiceImageV.image = [UIImage imageNamed:@"QQ20160818-2"];
self.voiceView.voiceTitleLab.text = @"松开手指, 取消发送";
self.voiceView.voiceTitleLab.backgroundColor = [UIColor colorWithRed:0.826 green:0.0 blue:0.0 alpha:1.0];
}
// 在按钮外面抬起手指取消录音
- (IBAction)sendTouchUpOutside:(UIButton *)sender {
NSLog(@"%s, line = %d", __FUNCTION__, __LINE__);
[self.voiceView removeFromSuperview];
// 停止录音
[self.audioRecorder stop];
// 删除录音文件
[self.audioRecorder deleteRecording];
}
// 设置音频保存路径
- (NSURL *)getSavePath {
NSString *urlStr = [NSSearchPathForDirectoriesInDomains(NSDocumentDirectory, NSUserDomainMask, YES) lastObject];
urlStr = [urlStr stringByAppendingPathComponent:kRecordAudioFile];
NSURL *url = [NSURL URLWithString:urlStr];
return url;
}
/**
* 设置音频会话
注意:一定要添加音频会话,不然真机上的录音时间不对,并且不能进行播放音频
*/
-(void)setAudioSession{
AVAudioSession *audioSession=[AVAudioSession sharedInstance];
//设置为播放和录音状态,以便可以在录制完之后播放录音
[audioSession setCategory:AVAudioSessionCategoryPlayAndRecord error:nil];
[audioSession setActive:YES error:nil];
}
// 录音文件设置
- (NSDictionary *)getAudioSetting {
NSMutableDictionary *dicM = [NSMutableDictionary dictionary];
// 设置录音格式
[dicM setObject:@(kAudioFormatLinearPCM) forKey:AVFormatIDKey];
// 设置录音采样率,8000是电话采样率,对于一般录音已经够了
[dicM setObject:@(8000) forKey:AVSampleRateKey];
// 设置通道,这里采用单声道
[dicM setObject:@(1) forKey:AVNumberOfChannelsKey];
// 每个采样点位数,分别为8,16,24,32
[dicM setObject:@(8) forKey:AVLinearPCMBitDepthKey];
// 是否使用浮点数采样
[dicM setObject:@(YES) forKey:AVLinearPCMIsFloatKey];
// ...其他设置
return dicM;
}
#pragma mark -- AVAudioRecorderDelegate
// 录音完成
- (void)audioRecorderDidFinishRecording:(AVAudioRecorder *)recorder successfully:(BOOL)flag {
//NSLog(@"录音完毕");
}
#pragma mark -- AVAudioPlayerDelegate
- (void)audioPlayerDidFinishPlaying:(AVAudioPlayer *)player successfully:(BOOL)flag {
NSLog(@"播放完毕");
}
5.播放语音
if ([chatFrameModel.msg.msg.message.body isEqualToString:@"voice"]) {
if (self.audioPlayer.isPlaying) {
[self.audioPlayer stop];
}
XMPPElement *node = chatFrameModel.msg.msg.message.children.lastObject;
// 取出消息的解码
NSString *base64str = node.stringValue;
NSData *data = [[NSData alloc]initWithBase64EncodedString:base64str options:0];
self.audioPlayer = [[AVAudioPlayer alloc] initWithData:data error:NULL];
self.audioPlayer.delegate = self;
[self.audioPlayer play];
}
6.发送图片信息
XMPPMessage* message = [[XMPPMessage alloc] initWithType:@"chat" to:self.jidChatTo.jid];
// 设置bodyType类型值为image
//[message addAttributeWithName:@"bodyType" stringValue:type];
#warning 此处采用图片,语音等传输方式为XML携带信息,所以传输速度慢,因为未搭建文件服务器,所以采用该种办法,建议采用文件服务器方式,传递URL
// 该处设置message的body为文件类型,后面对文件类型的判断由body来实现,其中尝试使用[message addAttributeWithName:@"bodyType" stringValue:type];来实现文件类型的判断但未成功,原因暂时未知
[message addBody:type];
// 转换成base64的编码
NSString *base64str = [data base64EncodedStringWithOptions:0];
// 设置节点内容
XMPPElement *attachment = [XMPPElement elementWithName:@"attachment" stringValue:base64str];
// 包含子节点
[message addChild:attachment];
#warning 此处采用的是文件服务器方式传输,但由于未建立文件服务器,所以传输对象为写死的一图片,语音等文件的url,仅供测试使用
//[message addBody:@"http://img5.duitang.com/uploads/item/201407/24/20140724054410_5ctE2.jpeg"];
// 发送图片消息
[[XMPPManager sharedmanager].stream sendElement:message];
7.会话内容回执
通过单元格代理方式来获得会话内容回执进行音频播放和图片浏览
#pragma mark ******************************
#pragma mark --ChatCellDelegate
- (void)getCurrentChatCell:(ChatTableViewCell *)cell withCurrentChatFrame:(ChatFrameModel *)chatFrameModel {
//NSString *chatType = [chatFrameModel.msg.msg.message attributeStringValueForName:@"bodyType"];
if ([chatFrameModel.msg.msg.message.body isEqualToString:@"image"]) {
MWPhotoBrowser *browser = [[MWPhotoBrowser alloc] initWithDelegate:self];
NSUInteger index = 0;
// 如果当前单元格中的url存在,则在数组中找到与之匹配的,并找出其序号
if (chatFrameModel.msg.msg.body) {
index = [self.chatImageArray indexOfObject:chatFrameModel.msg.msg.body];
}
// 设置图片查看器当前查看的位置
[browser setCurrentPhotoIndex:index];
// 跳转到图片查看器
[self.navigationController pushViewController:browser animated:YES];
} else if ([chatFrameModel.msg.msg.message.body isEqualToString:@"voice"]) {
if (self.audioPlayer.isPlaying) {
[self.audioPlayer stop];
}
XMPPElement *node = chatFrameModel.msg.msg.message.children.lastObject;
// 取出消息的解码
NSString *base64str = node.stringValue;
NSData *data = [[NSData alloc]initWithBase64EncodedString:base64str options:0];
self.audioPlayer = [[AVAudioPlayer alloc] initWithData:data error:NULL];
self.audioPlayer.delegate = self;
[self.audioPlayer play];
}
}
8.键盘高度
#pragma mak -- 更改键盘高度
- (void)keyboardFrameChange:(NSNotification *)sender {
// 获得键盘改变后的frame
NSValue *keyboardFrame = sender.userInfo[UIKeyboardFrameEndUserInfoKey];
CGRect rect = [keyboardFrame CGRectValue];
CGFloat height = CGRectGetHeight(rect);
// 计算聊天窗口的底部偏移量
if (rect.origin.y == [UIScreen mainScreen].bounds.size.height) {
self.inputViewBottonConstraint.constant = 0;
} else {
self.inputViewBottonConstraint.constant = height;
}
[UIView animateWithDuration:0.25 animations:^{
[self.view layoutIfNeeded];
}];
[self scrollToBottom];
}