- (ECCV2018)CBAM改进思路
这张生成的图像能检测吗
即插即用模块+改进思路深度学习人工智能计算机视觉机器学习图像处理神经网络论文笔记
论文链接:https://arxiv.org/abs/1807.06521论文题目:CBAM:ConvolutionalBlockAttentionModule会议:ECCV2018论文方法利用特征的通道间关系生成了一个通道注意图。由于特征映射的每个通道被认为是一个特征检测器,通道注意力集中在给定输入图像的“什么”是有意义的。为了有效地计算通道注意力,我们压缩了输入特征映射的空间维度。对于空间信息
- 基于CNN-BIGRU-Attention模型的功率预测(模型详解及代码复现)
清风AI
深度学习算法详解及代码复现深度学习人工智能算法机器学习计算机视觉cnn神经网络
整体架构基于CNN-BiGRU-Attention模型的功率预测模型是一种融合了卷积神经网络(CNN)、双向门控循环单元(BiGRU)和注意力机制(Attention)的深度学习架构。这种混合模型旨在充分利用CNN的局部特征提取能力、BiGRU的长序列处理能力以及Attention机制的关键特征突出能力,从而提高功率预测的准确性和可靠性。模型的整体架构主要包括以下几个关键组件:输入层:设计的输入特
- 基于Pytorch的语音情感识别系统
鱼弦
人工智能时代pytorch人工智能python
基于Pytorch的语音情感识别系统介绍语音情感识别(SpeechEmotionRecognition,SER)是指通过分析和处理人的语音信号来识别其情感状态。常见的情感状态包括愤怒、喜悦、悲伤、惊讶等。基于Pytorch的语音情感识别系统使用深度学习技术,通过训练神经网络模型来实现情感识别任务。应用使用场景客户服务中心:自动识别客户情绪,提供有针对性的服务。智能语音助手:提升人机交互体验,更加智
- DeepSeek R1-32B医疗大模型的完整微调实战分析(全码版)
Allen_LVyingbo
医疗高效编程研发健康医疗人工智能python
DeepSeekR1-32B微调实战指南├──1.环境准备│├──1.1硬件配置││├─全参数微调:4*A10080GB││└─LoRA微调:单卡24GB│├──1.2软件依赖││├─PyTorch2.1.2+CUDA││└─Unsloth/ColossalAI│└──1.3模型加载│├─4bit量化加载│└─FlashAttention2加速├──2.数据集构建│├──2.1数据源││├─CMD
- 2025最新Transformer模型及深度学习前沿技术应用
weixin_贾
PythonMATLABpython深度学习MATLAB编程深度学习模型图神经网络自编码物理信息神经网络目标检测大语言模型
第一章、注意力(Attention)机制1、注意力机制的背景和动机(为什么需要注意力机制?注意力机制的起源和发展里程碑)。2、注意力机制的基本原理(什么是注意力机制?注意力机制的数学表达与基本公式、用机器翻译任务带你了解Attention机制、如何计算注意力权重?)3、注意力机制的主要类型:键值对注意力机制(Key-ValueAttention)、自注意力(Self-Attention)与多头注意
- ResNet 改进:轻量级的混合本地信道注意机制MLCA
听风吹等浪起
AI改进系列深度学习opencv计算机视觉
目录1.MLCA注意力机制2.改进位置3.完整代码Tips:融入模块后的网络经过测试,可以直接使用,设置好输入和输出的图片维度即可1.MLCA注意力机制MLCA(MixedLocalChannelAttention)是一种轻量级的混合本地信道注意机制,旨在提升卷积神经网络(CNN)在图像处理任务中的性能。它通过结合局部和全局信息来增强特征表示能力,同时保持较低的计算复杂度。核心思想:MLCA的核心
- (二)使用Pandas进行数据分析 - 查询数据的几种方法
数据人章同学
数据分析数据挖掘机器学习
Pandas查询数据的几种方法df.loc方法,根据行、列的标签值查询(#.loc既能查询,又能覆盖写入)df.iloc方法,根据行、列的数字位置查询df.where方法df.query方法Pandas使用df.loc查询数据的方法使用单个label值查询数据使用值列表批量查询数据使用数值区间进行范围查询使用条件表达式查询调用函数查询Attention!以上查询方法,既适用于行,也适用于列注意观察
- 人工智能基础知识
yzx991013
人工智能
首先分为两大类:一:机器视觉cv1.特征比较明显2.经典模型:cnn,resnet,deepface,yolov(1-12),vi-transformer。缺点:不能解决收听问题。3.落地,无人识别,轨道追踪,无人驾驶,(主要解决看的东西)。二:自然语言处理nlp(语音识别)处理(文本)方面解决(说和听的问题),RNN,LSTM,attention,transformer(基于规则的翻译,超越普通
- sap 一代增强_SAP增强Enhancement
weixin_39958025
sap一代增强
第一代:基于源码增强(子过程subroutine)第一代增强基于源代码,是SAP提供的一个空代码的子过程。在这个子过程中用户可以添加自己的代码,控制自己的需求。这类增强集中在一些文件名倒数第二个字符为Z的包含程序中。一般是以UserExit_打头的子过程,因此形象地称其为用户出口。用户出口Include在SAP标准程序的源代码里,可以说是源代码的一部分,更改用户出口就相当于更改SAP标准程序,是需
- 大模型入门
24k小善
AI编程AI写作prompt
大模型技术演进的核心脉络当前大模型技术已进入"参数规模+架构创新"双轮驱动阶段。2025年的最新趋势显示,万亿级参数模型在稀疏激活(如Mixture-of-Experts)与动态路由技术加持下,推理成本较传统密集模型降低57%。Transformer架构的持续演进体现在位置编码改进(如RoPE旋转位置编码)、注意力机制优化(FlashAttention算法提升30%训练速度)以及层级结构创新(深度
- C#实现语音合成播报器——基于System.Speech的语音交互方案,在windows上实现语音播报指定文本
WangMing_X
C#实现各种功能工具集语音识别c#语音播报
——基于System.Speech的语音交互方案,在windows上实现语音播报指定文本一、语音合成播报应用场景语音合成播报器广泛应用于以下领域:工业控制:生产线异常报警、设备状态实时播报(如网页4中的WinCC语音报警插件)智能服务:医院叫号系统、银行排队提醒、智能客服应答信息播报:新闻阅读、天气预报、交通信息发布(如网页7的腾讯云语音应用)教育辅助:电子教材朗读、语言学习发音纠正物联网设备:智
- 【智能客服】智能客服的核心技术-对话系统
姚瑞南
智能客服人工智能自然语言处理chatgpt
目录一、基本概念二、对话系统的应用场景三、对话系统的常见构建方式四、一般架构AutomaticSpeechRecognition(ASR)NaturalLanguageUnderstanding(NLU)DialogueManagement(DM)NaturalLanguageGeneration(NLG)基于模板基于统计一、基本概念对话系统:与真人进行对话的系统。这里首先用案例介绍一下对话系统的
- 呼叫智能体:AI时代下的智能交互革命
MARS_AI_
人工智能自然语言处理信息与通信nlp
在人工智能技术高速发展的今天,呼叫智能体(CallAgent)正成为企业服务升级的核心引擎。它不仅是传统呼叫中心的智能化延伸,更是融合语音克隆、多语种交互、智能体编排等前沿技术的综合解决方案。本文将从技术原理、行业挑战、应用场景三个维度,解析这一突破性技术。一、呼叫智能体的核心技术栈声音克隆与TTS进化通过深度学习模型(如VITS、FastSpeech2),系统可克隆特定人声音色,结合大语言模型生
- Transformer 代码剖析15 - Transformer模型代码 (pytorch实现)
lczdyx
Transformer代码剖析transformerpytorch深度学习embedding人工智能python
一、模型架构全景解析1.1类定义与继承关系classTransformer(nn.Module):该实现继承PyTorch的nn.Module基类,采用面向对象设计模式。核心架构包含编码器-解码器双塔结构,通过参数配置实现NLP任务的通用处理能力。TransformerEncoderDecoderMulti-HeadAttentionFeedForwardMaskedMulti-HeadAtten
- 详解DeepSeek模型底层原理及和ChatGPT区别点
瞬间动力
语言模型机器学习AI编程云计算阿里云
一、DeepSeek大模型原理架构基础DeepSeek基于Transformer架构,Transformer架构主要由编码器和解码器组成,在自然语言处理任务中,通常使用的是Transformer的解码器部分。它的核心是自注意力机制(Self-Attention),这个机制允许模型在处理输入序列时,关注序列中不同位置的信息。例如,在处理句子“Thecatchasedthemouse”时,自注意力机制
- Transformer架构简略:DeepSeek 的底层基石
windwant
人工智能人工智能transformer架构
2017年,一篇名为《AttentionisAllYouNeed》的论文横空出世,提出了Transformer架构,彻底改变了自然语言处理(NLP)领域的格局。它不仅在各种NLP任务上取得了突破性进展,更成为了当今人工智能领域最具影响力的架构之一。一、从RNN到Transformer:突破瓶颈,开创先河在Transformer出现之前,循环神经网络(RNN)及其变体(如LSTM、GRU)是处理序列
- 图像处理中注意力机制的解析与代码详解
业余小程序猿
笔记
1.注意力机制的原理注意力机制(AttentionMechanism)是一种模拟人类视觉系统的机制,它使模型能够聚焦于图像的关键部分,从而提升图像处理任务的性能。在图像处理中,注意力机制通常分为通道注意力(ChannelAttention)和空间注意力(SpatialAttention)。通道注意力:通过动态调整每个通道的重要性,使模型更有效地利用输入数据的信息。其核心步骤包括全局池化、多层感知机
- flash-attn安装失败解决方案
你在康什么
ai语言模型
前言我们在使用大语言模型时,很多开源项目通常需要安装flash-attention2,但是使用pip在线安装flash-attention2时会遇到安装失败的情况,这时我们可以通过下载符合本地环境的whl文件,通过pip离线安装。解决方法下载符合本地环境的whl文件,通过pip离线安装flash-attnwhl文件下载地址参考文献flash-attn安装失败解决方案
- AAAI 2024 | Attentive Eraser:通过自注意力重定向引导释放扩散模型的物体移除潜力
小白学视觉
计算机顶会论文解读人工智能计算机视觉AAAI论文解读计算机顶会
论文信息题目:AttentiveEraser:UnleashingDiffusionModel’sObjectRemovalPotentialviaSelf-AttentionRedirectionGuidanceAttentiveEraser:通过自注意力重定向引导释放扩散模型的物体移除潜力作者:WenhaoSun,BenleiCui,Xue-MeiDong,JingqunTang源码:http
- 深入理解 Transformer:用途、原理和示例
范吉民(DY Young)
简单AI学习transformer深度学习人工智能
深入理解Transformer:用途、原理和示例一、Transformer是什么Transformer是一种基于注意力机制(AttentionMechanism)的深度学习架构,在2017年的论文“AttentionIsAllYouNeed”中惊艳登场。它打破了传统循环神经网络(RNN)按顺序处理序列、难以并行计算以及卷积神经网络(CNN)在捕捉长距离依赖关系上的局限,另辟蹊径地采用多头注意力机制
- AttnGAN: Fine-Grained Text to Image Generation with Attentional Generative Adversarial Networks
EwanRenton
DLpaperAttnGANtext2imgCVPR2018DAMSM
《AttnGAN:Fine-GrainedTexttoImageGenerationwithAttentionalGenerativeAdversarialNetworks》是CVPR2018文本生成图像的文章,是StackGAN++的后续工作。Abstract在本文中作者提出了一个AttentionalGenerativeAd-versarialNetwork(AttnGAN),一种attent
- 神经网络之CNN文本识别
邪恶的贝利亚
神经网络cnn人工智能
1.参考我的第一篇文章了解CNN概念神经网络之CNN图像识别(torchapi调用)-CSDN博客2.框架目前对NLP的研究分析应用最多的就是RNN系列的框架,比如RNN,GRU,LSTM等等,再加上Attention,基本可以认为是NLP的标配套餐了。但是在文本分类问题上,相比于RNN,CNN的构建和训练更为简单和快速,并且效果也不差,所以仍然会有一些研究。那么,CNN到底是怎么应用到NLP上的
- 【深度学习】Hopfield网络:模拟联想记忆
T-I-M
深度学习人工智能
Transformer优化,什么是稀疏注意力?Transformer模型自2017年被提出以来,已经成为自然语言处理(NLP)领域的核心架构,并在计算机视觉、语音处理等其他领域也取得了显著的成功。然而,随着模型规模的不断增大和任务复杂性的提升,Transformer的计算成本和内存需求也随之激增。为了解决这一问题,研究者们提出了多种优化方法,其中稀疏注意力(SparseAttention)是一种备
- 大语言模型技术专栏(三):Attention机制——从RNN到Transformer的惊世一跃!
北海yy
大语言模型技术专栏语言模型rnntransformer
文章目录概要一、Attention机制:让AI学会「划重点」二、Attention机制的核心原理三、Self-Attention:Transformer的核心四、代码实战:用PyTorch实现Attention五、Attention的进化:从Transformer到GPT概要大家好,我是北海yy,继续带来大语言模型技术专栏的深度解析!在上一期《RNN语言模型——让AI真正「记住」上下文的秘密武器》
- Transformer模型详解
Yuki-^_^
Transformer模型详解人工智能transformer深度学习人工智能
导读Transformer在许多的人工智能领域,如自然语言处理(NaturalLanguageProcessing,NLP)、计算机视觉(ComputerVision,CV)和语音处理(SpeechProcessing,SP)取得了巨大的成功。因此,自然而然的也吸引了许多工业界和学术界的研究人员的兴趣。到目前为止,已经提出了大量基于Transformer的相关工作和综述。本文基于邱锡鹏[1]老师近
- VOSK语音识别工具包使用教程
邴联微
VOSK语音识别工具包使用教程voskVOSKSpeechRecognitionToolkit项目地址:https://gitcode.com/gh_mirrors/vo/vosk1.项目介绍VOSK是一个开源的语音识别工具包,旨在提供高效的语音识别解决方案。VOSK基于大规模信号数据库概念,通过音频指纹技术进行语音识别。它支持多种语言,并且可以在不同的硬件平台上运行,包括Android和Linu
- 【vLLM 学习】使用 Neuron 安装
HyperAI超神经
vLLMvLLM开源人工智能深度学习源代码GPU机器学习
vLLM是一款专为大语言模型推理加速而设计的框架,实现了KV缓存内存几乎零浪费,解决了内存管理瓶颈问题。更多vLLM中文文档及教程可访问→https://vllm.hyper.ai/从vLLM0.3.3版本起,支持在带有NeuronSDK的AWSTrainium/Inferentia上进行模型推理和服务。目前NeuronSDK不支持分页注意力(PagedAttention),但Transforme
- Transformer 代码剖析1 - 数据处理 (pytorch实现)
lczdyx
Transformer代码剖析人工智能transformer深度学习pytorchpython
引言Transformer架构自《AttentionIsAllYouNeed》论文发表以来,在自然语言处理领域引起了巨大的变革。它摒弃了传统的循环结构,完全基于注意力机制,显著提高了处理序列数据的效率和性能。本文将通过对一个具体的项目代码结构进行详细分析,带领大家深入了解Transformer模型的数据处理部分。项目结构概述首先,让我们来看看项目的整体结构:(参考项目代码)transformer-
- DeepSeek技术全景解析:架构创新与行业差异化竞争力
二进制coder
人工智能架构AGIAI
一、DeepSeek技术体系的核心突破架构设计:效率与性能的双重革新Multi-headLatentAttention(MLA):通过将注意力头维度与隐藏层解耦,实现显存占用降低30%的同时支持4096超长上下文窗口。深度优化的MoE架构:结合256个路由专家与1个共享专家,实现稀疏激活机制(每个Token仅激活8个专家),在代码生成任务中推理速度提升40%。混合模态支持:支持文本、代码、数学符号
- Transformer 代码剖析4 - 编码器层实现 (pytorch实现)
lczdyx
Transformer代码剖析transformerpytorch深度学习人工智能python
一、EncoderLayer-类结构定义参考:项目代码classEncoderLayer(nn.Module):def__init__(self,d_model,ffn_hidden,n_head,drop_prob):super(EncoderLayer,self).__init__()self.attention=MultiHeadAttention(d_model=d_model,n_hea
- jvm调优总结(从基本概念 到 深度优化)
oloz
javajvmjdk虚拟机应用服务器
JVM参数详解:http://www.cnblogs.com/redcreen/archive/2011/05/04/2037057.html
Java虚拟机中,数据类型可以分为两类:基本类型和引用类型。基本类型的变量保存原始值,即:他代表的值就是数值本身;而引用类型的变量保存引用值。“引用值”代表了某个对象的引用,而不是对象本身,对象本身存放在这个引用值所表示的地址的位置。
- 【Scala十六】Scala核心十:柯里化函数
bit1129
scala
本篇文章重点说明什么是函数柯里化,这个语法现象的背后动机是什么,有什么样的应用场景,以及与部分应用函数(Partial Applied Function)之间的联系 1. 什么是柯里化函数
A way to write functions with multiple parameter lists. For instance
def f(x: Int)(y: Int) is a
- HashMap
dalan_123
java
HashMap在java中对很多人来说都是熟的;基于hash表的map接口的非同步实现。允许使用null和null键;同时不能保证元素的顺序;也就是从来都不保证其中的元素的顺序恒久不变。
1、数据结构
在java中,最基本的数据结构无外乎:数组 和 引用(指针),所有的数据结构都可以用这两个来构造,HashMap也不例外,归根到底HashMap就是一个链表散列的数据
- Java Swing如何实时刷新JTextArea,以显示刚才加append的内容
周凡杨
java更新swingJTextArea
在代码中执行完textArea.append("message")后,如果你想让这个更新立刻显示在界面上而不是等swing的主线程返回后刷新,我们一般会在该语句后调用textArea.invalidate()和textArea.repaint()。
问题是这个方法并不能有任何效果,textArea的内容没有任何变化,这或许是swing的一个bug,有一个笨拙的办法可以实现
- servlet或struts的Action处理ajax请求
g21121
servlet
其实处理ajax的请求非常简单,直接看代码就行了:
//如果用的是struts
//HttpServletResponse response = ServletActionContext.getResponse();
// 设置输出为文字流
response.setContentType("text/plain");
// 设置字符集
res
- FineReport的公式编辑框的语法简介
老A不折腾
finereport公式总结
FINEREPORT用到公式的地方非常多,单元格(以=开头的便被解析为公式),条件显示,数据字典,报表填报属性值定义,图表标题,轴定义,页眉页脚,甚至单元格的其他属性中的鼠标悬浮提示内容都可以写公式。
简单的说下自己感觉的公式要注意的几个地方:
1.if语句语法刚接触感觉比较奇怪,if(条件式子,值1,值2),if可以嵌套,if(条件式子1,值1,if(条件式子2,值2,值3)
- linux mysql 数据库乱码的解决办法
墙头上一根草
linuxmysql数据库乱码
linux 上mysql数据库区分大小写的配置
lower_case_table_names=1 1-不区分大小写 0-区分大小写
修改/etc/my.cnf 具体的修改内容如下:
[client]
default-character-set=utf8
[mysqld]
datadir=/var/lib/mysql
socket=/va
- 我的spring学习笔记6-ApplicationContext实例化的参数兼容思想
aijuans
Spring 3
ApplicationContext能读取多个Bean定义文件,方法是:
ApplicationContext appContext = new ClassPathXmlApplicationContext(
new String[]{“bean-config1.xml”,“bean-config2.xml”,“bean-config3.xml”,“bean-config4.xml
- mysql 基准测试之sysbench
annan211
基准测试mysql基准测试MySQL测试sysbench
1 执行如下命令,安装sysbench-0.5:
tar xzvf sysbench-0.5.tar.gz
cd sysbench-0.5
chmod +x autogen.sh
./autogen.sh
./configure --with-mysql --with-mysql-includes=/usr/local/mysql
- sql的复杂查询使用案列与技巧
百合不是茶
oraclesql函数数据分页合并查询
本片博客使用的数据库表是oracle中的scott用户表;
------------------- 自然连接查询
查询 smith 的上司(两种方法)
&
- 深入学习Thread类
bijian1013
javathread多线程java多线程
一. 线程的名字
下面来看一下Thread类的name属性,它的类型是String。它其实就是线程的名字。在Thread类中,有String getName()和void setName(String)两个方法用来设置和获取这个属性的值。
同时,Thr
- JSON串转换成Map以及如何转换到对应的数据类型
bijian1013
javafastjsonnet.sf.json
在实际开发中,难免会碰到JSON串转换成Map的情况,下面来看看这方面的实例。另外,由于fastjson只支持JDK1.5及以上版本,因此在JDK1.4的项目中可以采用net.sf.json来处理。
一.fastjson实例
JsonUtil.java
package com.study;
impor
- 【RPC框架HttpInvoker一】HttpInvoker:Spring自带RPC框架
bit1129
spring
HttpInvoker是Spring原生的RPC调用框架,HttpInvoker同Burlap和Hessian一样,提供了一致的服务Exporter以及客户端的服务代理工厂Bean,这篇文章主要是复制粘贴了Hessian与Spring集成一文,【RPC框架Hessian四】Hessian与Spring集成
在
【RPC框架Hessian二】Hessian 对象序列化和反序列化一文中
- 【Mahout二】基于Mahout CBayes算法的20newsgroup的脚本分析
bit1129
Mahout
#!/bin/bash
#
# Licensed to the Apache Software Foundation (ASF) under one or more
# contributor license agreements. See the NOTICE file distributed with
# this work for additional information re
- nginx三种获取用户真实ip的方法
ronin47
随着nginx的迅速崛起,越来越多公司将apache更换成nginx. 同时也越来越多人使用nginx作为负载均衡, 并且代理前面可能还加上了CDN加速,但是随之也遇到一个问题:nginx如何获取用户的真实IP地址,如果后端是apache,请跳转到<apache获取用户真实IP地址>,如果是后端真实服务器是nginx,那么继续往下看。
实例环境: 用户IP 120.22.11.11
- java-判断二叉树是不是平衡
bylijinnan
java
参考了
http://zhedahht.blog.163.com/blog/static/25411174201142733927831/
但是用java来实现有一个问题。
由于Java无法像C那样“传递参数的地址,函数返回时能得到参数的值”,唯有新建一个辅助类:AuxClass
import ljn.help.*;
public class BalancedBTree {
- BeanUtils.copyProperties VS PropertyUtils.copyProperties
诸葛不亮
PropertyUtilsBeanUtils
BeanUtils.copyProperties VS PropertyUtils.copyProperties
作为两个bean属性copy的工具类,他们被广泛使用,同时也很容易误用,给人造成困然;比如:昨天发现同事在使用BeanUtils.copyProperties copy有integer类型属性的bean时,没有考虑到会将null转换为0,而后面的业
- [金融与信息安全]最简单的数据结构最安全
comsci
数据结构
现在最流行的数据库的数据存储文件都具有复杂的文件头格式,用操作系统的记事本软件是无法正常浏览的,这样的情况会有什么问题呢?
从信息安全的角度来看,如果我们数据库系统仅仅把这种格式的数据文件做异地备份,如果相同版本的所有数据库管理系统都同时被攻击,那么
- vi区段删除
Cwind
linuxvi区段删除
区段删除是编辑和分析一些冗长的配置文件或日志文件时比较常用的操作。简记下vi区段删除要点备忘。
vi概述
引文中并未将末行模式单独列为一种模式。单不单列并不重要,能区分命令模式与末行模式即可。
vi区段删除步骤:
1. 在末行模式下使用:set nu显示行号
非必须,随光标移动vi右下角也会显示行号,能够正确找到并记录删除开始行
- 清除tomcat缓存的方法总结
dashuaifu
tomcat缓存
用tomcat容器,大家可能会发现这样的问题,修改jsp文件后,但用IE打开 依然是以前的Jsp的页面。
出现这种现象的原因主要是tomcat缓存的原因。
解决办法如下:
在jsp文件头加上
<meta http-equiv="Expires" content="0"> <meta http-equiv="kiben&qu
- 不要盲目的在项目中使用LESS CSS
dcj3sjt126com
Webless
如果你还不知道LESS CSS是什么东西,可以看一下这篇文章,是我一朋友写给新人看的《CSS——LESS》
不可否认,LESS CSS是个强大的工具,它弥补了css没有变量、无法运算等一些“先天缺陷”,但它似乎给我一种错觉,就是为了功能而实现功能。
比如它的引用功能
?
.rounded_corners{
- [入门]更上一层楼
dcj3sjt126com
PHPyii2
更上一层楼
通篇阅读完整个“入门”部分,你就完成了一个完整 Yii 应用的创建。在此过程中你学到了如何实现一些常用功能,例如通过 HTML 表单从用户那获取数据,从数据库中获取数据并以分页形式显示。你还学到了如何通过 Gii 去自动生成代码。使用 Gii 生成代码把 Web 开发中多数繁杂的过程转化为仅仅填写几个表单就行。
本章将介绍一些有助于更好使用 Yii 的资源:
- Apache HttpClient使用详解
eksliang
httpclienthttp协议
Http协议的重要性相信不用我多说了,HttpClient相比传统JDK自带的URLConnection,增加了易用性和灵活性(具体区别,日后我们再讨论),它不仅是客户端发送Http请求变得容易,而且也方便了开发人员测试接口(基于Http协议的),即提高了开发的效率,也方便提高代码的健壮性。因此熟练掌握HttpClient是很重要的必修内容,掌握HttpClient后,相信对于Http协议的了解会
- zxing二维码扫描功能
gundumw100
androidzxing
经常要用到二维码扫描功能
现给出示例代码
import com.google.zxing.WriterException;
import com.zxing.activity.CaptureActivity;
import com.zxing.encoding.EncodingHandler;
import android.app.Activity;
import an
- 纯HTML+CSS带说明的黄色导航菜单
ini
htmlWebhtml5csshovertree
HoverTree带说明的CSS菜单:纯HTML+CSS结构链接带说明的黄色导航
在线体验效果:http://hovertree.com/texiao/css/1.htm代码如下,保存到HTML文件可以看到效果:
<!DOCTYPE html >
<html >
<head>
<title>HoverTree
- fastjson初始化对性能的影响
kane_xie
fastjson序列化
之前在项目中序列化是用thrift,性能一般,而且需要用编译器生成新的类,在序列化和反序列化的时候感觉很繁琐,因此想转到json阵营。对比了jackson,gson等框架之后,决定用fastjson,为什么呢,因为看名字感觉很快。。。
网上的说法:
fastjson 是一个性能很好的 Java 语言实现的 JSON 解析器和生成器,来自阿里巴巴的工程师开发。
- 基于Mybatis封装的增删改查实现通用自动化sql
mengqingyu
DAO
1.基于map或javaBean的增删改查可实现不写dao接口和实现类以及xml,有效的提高开发速度。
2.支持自定义注解包括主键生成、列重复验证、列名、表名等
3.支持批量插入、批量更新、批量删除
<bean id="dynamicSqlSessionTemplate" class="com.mqy.mybatis.support.Dynamic
- js控制input输入框的方法封装(数字,中文,字母,浮点数等)
qifeifei
javascript js
在项目开发的时候,经常有一些输入框,控制输入的格式,而不是等输入好了再去检查格式,格式错了就报错,体验不好。 /** 数字,中文,字母,浮点数(+/-/.) 类型输入限制,只要在input标签上加上 jInput="number,chinese,alphabet,floating" 备注:floating属性只能单独用*/
funct
- java 计时器应用
tangqi609567707
javatimer
mport java.util.TimerTask; import java.util.Calendar; public class MyTask extends TimerTask { private static final int
- erlang输出调用栈信息
wudixiaotie
erlang
在erlang otp的开发中,如果调用第三方的应用,会有有些错误会不打印栈信息,因为有可能第三方应用会catch然后输出自己的错误信息,所以对排查bug有很大的阻碍,这样就要求我们自己打印调用的栈信息。用这个函数:erlang:process_display (self (), backtrace).需要注意这个函数只会输出到标准错误输出。
也可以用这个函数:erlang:get_s