- 从零开始构建一个大语言模型-第五章第五节
释迦呼呼
从零开始构建一个大语言模型语言模型人工智能自然语言处理机器学习pytorch
第五章目录5.1评估生成文本模型5.2训练一个LLM5.3控制随机性的解码策略5.4在PyTorch中加载和保存模型权重5.5从OpenAI加载预训练权重5.5从OpenAI加载预训练权重此前,我们使用一个由一本短篇小说集组成的有限数据集训练了一个小型GPT-2模型。这种方法使我们能够专注于基础知识,而无需大量的时间和计算资源。幸运的是,OpenAI公开分享了他们的GPT-2模型权重,这样我们就无
- gpt-2语言模型训练
谷隐凡二
Python机器学习python人工智能
一、通过下载对应的语言模型数据集1.1根据你想让回答的内容,针对性下载对应的数据集,我下载的是个医疗问答数据集1.2针对你要用到的字段信息进行处理,然后把需要处理的数据丢给模型去训练,这个模型我是直接从GPT2的网站下载下来的依赖的必要文件截图如下:二、具体代码样例实现:importosimportpandasaspdfromtransformersimportGPT2Tokenizer,GPT2
- GPT-3:一个新应用生态系统诞生了
派派AI学院
「某个应用程序用2个基于GPT-3的机器人相互辩论。这是YouTube用户BakzT.Future剖析的14个GPT-3应用程序之一。」GPT-3以其庞大的规模成为OpenAI令人印象深刻的自然语言处理(NLP)模型。Transformerencoder-decoder模型之间由超过1,750亿个被称为参数的单词之间的加权值连接,将其15亿个参数的前身GPT-2打的落花流水。您只要输入要执行的任务
- AIGC从入门到实战:模型搭建【GPT4ALL】
老童聊AI
老童陪你学AIpython明哥陪你学PythonAI编程AIGC人工智能
GPT相关模型的搭建:GPT-2:这是一个较早开源的模型,适合个人研究和学习。它有不同大小的版本,如117M、345M、774M和1.5B参数版本,可以根据你的计算资源选择不同大小的模型。GPT-2模型是基于TensorFlow实现的,你可以在本地环境中安装TensorFlow和相关依赖库来运行此模型5。GPT4All:这是一个开源项目,提供了一个可以在本地运行的GPT模型,不需要网络连接,也不强
- NLP_GPT到ChatGPT
you_are_my_sunshine*
NLP大模型自然语言处理gptchatgpt
文章目录介绍小结介绍从初代GPT到GPT-3,主要经历了下面几个关键时刻。GPT:2018年,OpenAl发布了这款基于Transformer架构的预训练语言模型,其参数数量为1.17亿(117M)。GPT运用单向自回归方法生成文本,先预训练大量无标签文本,再在特定任务上进行微调。GPT在多种NLP任务上取得了显著进步。GPT-2:2019年,OpenAI推出了GPT的升级版,拥有更多参数[15亿
- 大模型基础知识
lichunericli
LLM人工智能语言模型
主流的开源模型体系GPT(GenerativePre-trainedTransformer)系列:由OpenAI发布的一系列基于Transformer架构的语言模型,包括GPT、GPT-2、GPT-3等。GPT模型通过在大规模无标签文本上进行预训练,然后在特定任务上进行微调,具有很强的生成能力和语言理解能力。BERT(BidirectionalEncoderRepresentationsfromT
- OpenAI使用的海量数据集介绍
科学禅道
大模型专栏深度学习自然语言处理语言模型人工智能
1.OpenAI使用的数据OpenAI为了训练其尖端的自然语言处理模型,如GPT-4,采用了极为庞大的数据集。虽然具体的细节可能不完全公开,但我们可以根据历史信息和公开报道推测,这些数据集通常包含:WebText:早期版本的GPT(如GPT-2)使用的WebText是一个大规模的网络文本集合,包含了从互联网上抓取的高质量网页内容。书籍数据集:类似于books3这样的数据集,它们包含了成千上万本图书
- GPT-3 训练自己的数据教程详解
mqdlff_python
gpt-3python人工智能GPT-3
安装依赖库:确保你安装了必要的Python库,包括transformers、torch等。pipinstalltorchpipinstalltransformers下载预训练模型:从HuggingFace的模型库中下载GPT-2的预训练权重。fromtransformersimportGPT2Tokenizer,GPT2LMHeadModelmodel_name="gpt2"#或"gpt2-med
- 介绍一下gpt2模型的原理
程序员奇奇
gpt2模型的原理
GPT-2(GenerativePre-trainedTransformer2)是OpenAI发布的一种生成式预训练模型,是GPT系列的第二代。以下是GPT-2模型的基本原理:Transformer架构:GPT-2基于Transformer模型,该架构由Attention机制构成。Transformer允许模型在处理序列数据时关注不同位置的信息,而不仅仅是局限于当前位置。这种机制提高了模型对长距离
- 多模态对比语言图像预训练CLIP:打破语言与视觉的界限,具备零样本能力
代码讲故事
机器人智慧之心人工智能计算机视觉深度学习CLIP多模态NLP对比训练
多模态对比语言图像预训练CLIP:打破语言与视觉的界限,具备零样本能力。一种基于多模态(图像、文本)对比训练的神经网络。它可以在给定图像的情况下,使用自然语言来预测最相关的文本片段,而无需为特定任务进行优化。CLIP的设计类似于GPT-2和GPT-3,具备出色的零射击能力,可以应用于多种多模态任务。多模态对比语言图像预训练(ContrastiveLanguage-ImagePre-training
- GPT-1, GPT-2, GPT-3, GPT-3.5, GPT-4论文内容解读
BGoodHabit
ChatGPTchatgptgpt大模型LLM
目录1ChatGPT概述1.1whatischatGPT1.2HowdoesChatGPTwork1.3TheapplicationsofChatGPT1.3ThelimitationsofChatGPT2算法原理2.1GPT-12.1.1Unsupervisedpre-training2.1.2Supervisedfine-tuning2.1.3语料2.1.4分析2.2GPT-22.3GPT-3
- 有哪些流行的中文开源语言模型?
qq_20984273
语言模型人工智能自然语言处理
支持中文的流行开源语言模型有很多,这些模型在自然语言处理领域的中文任务上表现出色,包括文本分类、情感分析、机器翻译、问答系统等。以下是一些支持中文的流行开源语言模型:1.**BERT-Base,Chinese**:Google发布的BERT模型的中文版本,预训练包括中文在内的多语言模型,适用于各种中文NLP任务。2.**GPT-2/GPT-3**:OpenAI发布的GPT系列模型,虽然主要是以英文
- transformer_多头注意力机制代码笔记
等风来随风飘
LLM笔记深度学习pytorch
transformer_多头注意力机制代码笔记以GPT-2中多头注意力机制代码为例classCausalSelfAttention(nn.Module):"""因果掩码+多头自注意力机制Avanillamulti-headmaskedself-attentionlayerwithaprojectionattheend.Itispossibletousetorch.nn.MultiheadAtten
- Transformer 自然语言处理(二)
绝不原创的飞龙
人工智能gpt
原文:NaturalLanguageProcessingwithTransformers译者:飞龙协议:CCBY-NC-SA4.0第五章:文本生成基于Transformer的语言模型最令人不安的特点之一是它们生成的文本几乎无法与人类写的文本区分开。一个著名的例子是OpenAI的GPT-2,当给出以下提示时:¹在一个令人震惊的发现中,科学家们发现了一群生活在安第斯山脉偏远、以前未被探索过的山谷中的独
- LLM语言模型,特别是GPT,对美国各种职业和行业的潜在影响
百态老人
语言模型人工智能大数据
OpenAI官网发布了最新的研究论文《GPTsareGPTs:Anearlylookatthelabormarketimpactpotentialoflargelanguagemodels》,该文旨在探讨LLM语言模型,特别是GPT,对美国各种职业和行业的潜在影响。GPT模型的选择和相关指标论文中选择了最为知名的几个GPT模型进行比较,包括GPT-3、GPT-2和GPT。在使用这些模型时,通过衡量
- Byte Pair Encoding(BPE)算法及代码笔记
等风来随风飘
LLMLLM
BytePairEncoding(BPE)算法BPE算法是Transformer中构建词表的方法,大致分为如下几个步骤:将语料中的文本切分为字符统计高频共现二元组将共现频率最高的二元组合并加入词表重复上述第二和第三直到词表规模达到预先设置的数量,或没有可以合并的二元组为止以GPT-2中BPE相关的代码为例对代码进行整理完整代码如下所示"""BPE算法:字节对编码算法,将任意UTF-8字符串转换为整
- GPT-2 开源模型本地搭建(一)
天罚神
深度学习tensorflow深度学习python
GPT-2开源模型本地搭建1、GPT使用心得2、py环境准备2.1安装MicrosoftVisualC++14.0运行库2.2环境安装1.安装python3.6或3.72.安装pip3安装tensorflow4.安装NumPy、regex5.安装其他插件(pipfreeze|greptensorflow)3、GPT-2开源模型本地搭建(基于HuggingFace)3.1模型介绍3.2插件安装3.3
- 【论文笔记】GPT,GPT-2,GPT-3
爱学习的卡比兽
论文NLP论文阅读gpt
参考:GPT,GPT-2,GPT-3【论文精读】GPTTransformer的解码器,仅已知"过去",推导"未来"论文地址:ImprovingLanguageUnderstandingbyGenerativePre-Training半监督学习:无标签数据集预训练模型,有标签数据集微调BERTTransformer的编码器,完形填空,已知“过去”和“未来”,推导中间值论文地址:BERT:Pre-tr
- GPT4+Python近红外光谱数据分析及机器学习与深度学习建模
慢腾腾的小蜗牛
python数据分析机器学习近红外光谱遥感gpt
详情点击链接:GPT4+Python近红外光谱数据分析及机器学习与深度学习建模第一:GPT4入门基础1、ChatGPT概述(GPT-1、GPT-2、GPT-3、GPT-3.5、GPT-4模型的演变)2、ChatGPT对话初体验(注册与充值、购买方法)3、GPT-4与GPT-3.5的区别,以及与国内大语言模型(文心一言、星火等)的区别4、ChatGPT科研必备插件(DataInterpreter、W
- 复现六:大模型评测教程
cq99312254
人工智能语言模型
复现五LMDeploy的量化和部署-CSDN博客随着人工智能技术的快速发展,大规模预训练自然语言模型成为了研究热点和关注焦点。OpenAI于2018年提出了第一代GPT模型,开辟了自然语言模型生成式预训练的路线。沿着这条路线,随后又陆续发布了GPT-2和GPT-3模型。与此同时,谷歌也探索了不同的大规模预训练模型方案,例如如T5,Flan等。OpenAI在2022年11月发布ChatGPT,展示了
- 大语言模型(LLM)有哪些?
图灵追慕者
NLP语言模型自然语言处理NLPLLM大语言模型类别
国际大语言模型目前国际上有以下几个知名的大语言模型:GPT-4GPT-4由OpenAI团队开发,是闭源的。GPT(GenerativePre-trainedTransformer)系列是目前最著名的大语言模型之一。最早的版本是GPT-1,之后发展到了GPT-2和GPT-3,目前最新版本是GPT-4,2023年3月14日发布。GPT系列模型通过预训练和微调的方式,可以生成高质量的文本。BERTBER
- GPT-5最新官方剧透;Yann LeCun称对 AI 严格立法还为时尚早
无际Ai
人工智能gpt科技aiAIGC
在达沃斯经济论坛,openAICEO奥特曼一共参加了4-5场活动,他表示自己的第一优先要务是发布下一代模型,但不一定就会叫GPT-5。奥特曼透露的关于GPT-5的关键信息包括:如果GPT-4目前解决了人类任务的10%,GPT-5应该是15%或者20%。GPT-2非常糟糕,3相当糟糕,4也糟糕,5应该能算okay。如果对比初代iPhone和最新iPhone15,会感觉是截然不同的设备,AI也是如此。
- GPT4+Python近红外光谱数据分析及机器学习与深度学习建模
夏日恋雨
遥感人工智能python数据分析机器学习近红外光谱高光谱chatgpt人工智能
详情点击链接:GPT4+Python近红外光谱数据分析及机器学习与深度学习建模第一:GPT41、ChatGPT(GPT-1、GPT-2、GPT-3、GPT-3.5、GPT-4模型的演变)2、ChatGPT对话初体验3、GPT-4与GPT-3.5的区别,以及与国内大语言模型(文心一言、星火等)的区别4、ChatGPT科研必备插件(DataInterpreter、Wolfram、WebPilot、Mi
- 大模型用model.generate 直接产生文本的id以及获得模型生成文本概率的方法
samoyan
LLM面试NLP人工智能机器学习深度学习
使用模型的generate方法当使用大型语言模型(如GPT-2、GPT-3、BERT等)的generate方法直接产生文本时,通常返回的是文本的tokenID序列。为了获得每个token的生成概率,你需要使用模型的logits输出。logits是模型在softmax层之前的输出,表示模型对每个可能的下一个token的置信度。通过对这些logits应用softmax函数,可以得到概率分布。使用log
- 解码器生成策略:大模型 Decoder 的应用与实践
百度_开发者中心
人工智能自然语言处理大模型prompt
近年来,随着数百万个网页数据的训练,大型基于Transformer的语言模型如OpenAI的GPT-2逐渐崭露头角。这些模型在开放式语言生成方面取得了显著成果,除了改进的Transformer架构和大规模无监督训练数据外,一个重要的因素是更好的解码器方法。解码器生成策略在自回归语言生成中发挥着关键作用,它基于一个假设:一个词序列的概率分布可以分解为下一个词条件概率分布的乘积。在自回归语言生成中,初
- 基于ChatGPT4+Python近红外光谱数据分析及机器学习与深度学习建模教程
夏日恋雨
遥感人工智能python数据分析机器学习近红外光谱高光谱迁移学习chatgpt
详情点击链接:基于ChatGPT4+Python近红外光谱数据分析及机器学习与深度学习建模教程第一:GPT41、ChatGPT(GPT-1、GPT-2、GPT-3、GPT-3.5、GPT-4模型的演变)2、ChatGPT对话初体验3、GPT-4与GPT-3.5的区别,以及与国内大语言模型(文心一言、星火等)的区别4、ChatGPT科研必备插件(DataInterpreter、Wolfram、Web
- GPT-5,奥特曼最新剧透
虚无火星车
gptchatgpt
GPT-5的消息越来越藏不住了,连OpenAICEO奥特曼都不再遮遮掩掩——开始在各种公开场合频繁造势,不断挑动科技圈的神经。在达沃斯经济论坛,奥特曼一共参加了4-5场活动,透露的关键信息包括:如果GPT-4目前解决了人类任务的10%,GPT-5应该是15%或者20%。GPT-2非常糟糕,3相当糟糕,4也糟糕,5应该能算okay。如果对比初代iPhone和最新iPhone15,会感觉是截然不同的设
- OpenCompass 大模型评测
桑_榆
MMLab实战训练营人工智能
OpenCompass大模型评测关于测评的三个问题为什么需要测评?我们需要评测什么?怎么测试大预言模型?主流大模型评测框架OpenCompass能力框架OpenCompass评测流水线设计随着人工智能技术的快速发展,大规模预训练自然语言模型成为了研究热点和关注焦点。OpenAI于2018年提出了第一代GPT模型,开辟了自然语言模型生成式预训练的路线。沿着这条路线,随后又陆续发布了GPT-2和GPT
- gpt-2 生成文本_对gpt 2进行了微调,以实现神奇的收集风味文本生成
weixin_26730921
pythonjavavuenlpViewUI
gpt-2生成文本AtemplateforfinetuningyourownGPT-2model.用于微调您自己的GPT-2模型的模板。GPT-3hasdominatedtheNLPnewscyclerecentlywithitsborderlinemagicalperformanceintextgeneration,butforeveryonewithout$1,000,000,000ofAzu
- 第四课:GPT2
一条大蟒蛇6666
昇思技术公开课学习笔记人工智能机器学习深度学习
文章目录第四课:GPT21、学习总结:GPT2的学习目标和概念任务调节零样本学习和零短任务迁移模型结构GPT-2自注意力掩码实现1-创建qkv2-评分3-合并注意力头4-Projecting课程ppt及代码地址2、学习心得:3、经验分享:4、课程反馈:5、使用MindSpore昇思的体验和反馈:6、未来展望:第四课:GPT21、学习总结:GPT2的学习目标和概念任务调节任务调节(TaskCondi
- LeetCode[Math] - #66 Plus One
Cwind
javaLeetCode题解AlgorithmMath
原题链接:#66 Plus One
要求:
给定一个用数字数组表示的非负整数,如num1 = {1, 2, 3, 9}, num2 = {9, 9}等,给这个数加上1。
注意:
1. 数字的较高位存在数组的头上,即num1表示数字1239
2. 每一位(数组中的每个元素)的取值范围为0~9
难度:简单
分析:
题目比较简单,只须从数组
- JQuery中$.ajax()方法参数详解
AILIKES
JavaScriptjsonpjqueryAjaxjson
url: 要求为String类型的参数,(默认为当前页地址)发送请求的地址。
type: 要求为String类型的参数,请求方式(post或get)默认为get。注意其他http请求方法,例如put和 delete也可以使用,但仅部分浏览器支持。
timeout: 要求为Number类型的参数,设置请求超时时间(毫秒)。此设置将覆盖$.ajaxSetup()方法的全局
- JConsole & JVisualVM远程监视Webphere服务器JVM
Kai_Ge
JVisualVMJConsoleWebphere
JConsole是JDK里自带的一个工具,可以监测Java程序运行时所有对象的申请、释放等动作,将内存管理的所有信息进行统计、分析、可视化。我们可以根据这些信息判断程序是否有内存泄漏问题。
使用JConsole工具来分析WAS的JVM问题,需要进行相关的配置。
首先我们看WAS服务器端的配置.
1、登录was控制台https://10.4.119.18
- 自定义annotation
120153216
annotation
Java annotation 自定义注释@interface的用法 一、什么是注释
说起注释,得先提一提什么是元数据(metadata)。所谓元数据就是数据的数据。也就是说,元数据是描述数据的。就象数据表中的字段一样,每个字段描述了这个字段下的数据的含义。而J2SE5.0中提供的注释就是java源代码的元数据,也就是说注释是描述java源
- CentOS 5/6.X 使用 EPEL YUM源
2002wmj
centos
CentOS 6.X 安装使用EPEL YUM源1. 查看操作系统版本[root@node1 ~]# uname -a Linux node1.test.com 2.6.32-358.el6.x86_64 #1 SMP Fri Feb 22 00:31:26 UTC 2013 x86_64 x86_64 x86_64 GNU/Linux [root@node1 ~]#
- 在SQLSERVER中查找缺失和无用的索引SQL
357029540
SQL Server
--缺失的索引
SELECT avg_total_user_cost * avg_user_impact * ( user_scans + user_seeks ) AS PossibleImprovement ,
last_user_seek ,
 
- Spring3 MVC 笔记(二) —json+rest优化
7454103
Spring3 MVC
接上次的 spring mvc 注解的一些详细信息!
其实也是一些个人的学习笔记 呵呵!
- 替换“\”的时候报错Unexpected internal error near index 1 \ ^
adminjun
java“\替换”
发现还是有些东西没有刻子脑子里,,过段时间就没什么概念了,所以贴出来...以免再忘...
在拆分字符串时遇到通过 \ 来拆分,可是用所以想通过转义 \\ 来拆分的时候会报异常
public class Main {
/*
- POJ 1035 Spell checker(哈希表)
aijuans
暴力求解--哈希表
/*
题意:输入字典,然后输入单词,判断字典中是否出现过该单词,或者是否进行删除、添加、替换操作,如果是,则输出对应的字典中的单词
要求按照输入时候的排名输出
题解:建立两个哈希表。一个存储字典和输入字典中单词的排名,一个进行最后输出的判重
*/
#include <iostream>
//#define
using namespace std;
const int HASH =
- 通过原型实现javascript Array的去重、最大值和最小值
ayaoxinchao
JavaScriptarrayprototype
用原型函数(prototype)可以定义一些很方便的自定义函数,实现各种自定义功能。本次主要是实现了Array的去重、获取最大值和最小值。
实现代码如下:
<script type="text/javascript">
Array.prototype.unique = function() {
var a = {};
var le
- UIWebView实现https双向认证请求
bewithme
UIWebViewhttpsObjective-C
什么是HTTPS双向认证我已在先前的博文 ASIHTTPRequest实现https双向认证请求
中有讲述,不理解的读者可以先复习一下。本文是用UIWebView来实现对需要客户端证书验证的服务请求,网上有些文章中有涉及到此内容,但都只言片语,没有讲完全,更没有完整的代码,让人困扰不已。但是此知
- NoSQL数据库之Redis数据库管理(Redis高级应用之事务处理、持久化操作、pub_sub、虚拟内存)
bijian1013
redis数据库NoSQL
3.事务处理
Redis对事务的支持目前不比较简单。Redis只能保证一个client发起的事务中的命令可以连续的执行,而中间不会插入其他client的命令。当一个client在一个连接中发出multi命令时,这个连接会进入一个事务上下文,该连接后续的命令不会立即执行,而是先放到一个队列中,当执行exec命令时,redis会顺序的执行队列中
- 各数据库分页sql备忘
bingyingao
oraclesql分页
ORACLE
下面这个效率很低
SELECT * FROM ( SELECT A.*, ROWNUM RN FROM (SELECT * FROM IPAY_RCD_FS_RETURN order by id desc) A ) WHERE RN <20;
下面这个效率很高
SELECT A.*, ROWNUM RN FROM (SELECT * FROM IPAY_RCD_
- 【Scala七】Scala核心一:函数
bit1129
scala
1. 如果函数体只有一行代码,则可以不用写{},比如
def print(x: Int) = println(x)
一行上的多条语句用分号隔开,则只有第一句属于方法体,例如
def printWithValue(x: Int) : String= println(x); "ABC"
上面的代码报错,因为,printWithValue的方法
- 了解GHC的factorial编译过程
bookjovi
haskell
GHC相对其他主流语言的编译器或解释器还是比较复杂的,一部分原因是haskell本身的设计就不易于实现compiler,如lazy特性,static typed,类型推导等。
关于GHC的内部实现有篇文章说的挺好,这里,文中在RTS一节中详细说了haskell的concurrent实现,里面提到了green thread,如果熟悉Go语言的话就会发现,ghc的concurrent实现和Go有点类
- Java-Collections Framework学习与总结-LinkedHashMap
BrokenDreams
LinkedHashMap
前面总结了java.util.HashMap,了解了其内部由散列表实现,每个桶内是一个单向链表。那有没有双向链表的实现呢?双向链表的实现会具备什么特性呢?来看一下HashMap的一个子类——java.util.LinkedHashMap。
- 读《研磨设计模式》-代码笔记-抽象工厂模式-Abstract Factory
bylijinnan
abstract
声明: 本文只为方便我个人查阅和理解,详细的分析以及源代码请移步 原作者的博客http://chjavach.iteye.com/
package design.pattern;
/*
* Abstract Factory Pattern
* 抽象工厂模式的目的是:
* 通过在抽象工厂里面定义一组产品接口,方便地切换“产品簇”
* 这些接口是相关或者相依赖的
- 压暗面部高光
cherishLC
PS
方法一、压暗高光&重新着色
当皮肤很油又使用闪光灯时,很容易在面部形成高光区域。
下面讲一下我今天处理高光区域的心得:
皮肤可以分为纹理和色彩两个属性。其中纹理主要由亮度通道(Lab模式的L通道)决定,色彩则由a、b通道确定。
处理思路为在保持高光区域纹理的情况下,对高光区域着色。具体步骤为:降低高光区域的整体的亮度,再进行着色。
如果想简化步骤,可以只进行着色(参看下面的步骤1
- Java VisualVM监控远程JVM
crabdave
visualvm
Java VisualVM监控远程JVM
JDK1.6开始自带的VisualVM就是不错的监控工具.
这个工具就在JAVA_HOME\bin\目录下的jvisualvm.exe, 双击这个文件就能看到界面
通过JMX连接远程机器, 需要经过下面的配置:
1. 修改远程机器JDK配置文件 (我这里远程机器是linux).
 
- Saiku去掉登录模块
daizj
saiku登录olapBI
1、修改applicationContext-saiku-webapp.xml
<security:intercept-url pattern="/rest/**" access="IS_AUTHENTICATED_ANONYMOUSLY" />
<security:intercept-url pattern=&qu
- 浅析 Flex中的Focus
dsjt
htmlFlexFlash
关键字:focus、 setFocus、 IFocusManager、KeyboardEvent
焦点、设置焦点、获得焦点、键盘事件
一、无焦点的困扰——组件监听不到键盘事件
原因:只有获得焦点的组件(确切说是InteractiveObject)才能监听到键盘事件的目标阶段;键盘事件(flash.events.KeyboardEvent)参与冒泡阶段,所以焦点组件的父项(以及它爸
- Yii全局函数使用
dcj3sjt126com
yii
由于YII致力于完美的整合第三方库,它并没有定义任何全局函数。yii中的每一个应用都需要全类别和对象范围。例如,Yii::app()->user;Yii::app()->params['name'];等等。我们可以自行设定全局函数,使得代码看起来更加简洁易用。(原文地址)
我们可以保存在globals.php在protected目录下。然后,在入口脚本index.php的,我们包括在
- 设计模式之单例模式二(解决无序写入的问题)
come_for_dream
单例模式volatile乱序执行双重检验锁
在上篇文章中我们使用了双重检验锁的方式避免懒汉式单例模式下由于多线程造成的实例被多次创建的问题,但是因为由于JVM为了使得处理器内部的运算单元能充分利用,处理器可能会对输入代码进行乱序执行(Out Of Order Execute)优化,处理器会在计算之后将乱序执行的结果进行重组,保证该
- 程序员从初级到高级的蜕变
gcq511120594
框架工作PHPandroidhtml5
软件开发是一个奇怪的行业,市场远远供不应求。这是一个已经存在多年的问题,而且随着时间的流逝,愈演愈烈。
我们严重缺乏能够满足需求的人才。这个行业相当年轻。大多数软件项目是失败的。几乎所有的项目都会超出预算。我们解决问题的最佳指导方针可以归结为——“用一些通用方法去解决问题,当然这些方法常常不管用,于是,唯一能做的就是不断地尝试,逐个看看是否奏效”。
现在我们把淫浸代码时间超过3年的开发人员称为
- Reverse Linked List
hcx2013
list
Reverse a singly linked list.
/**
* Definition for singly-linked list.
* public class ListNode {
* int val;
* ListNode next;
* ListNode(int x) { val = x; }
* }
*/
p
- Spring4.1新特性——数据库集成测试
jinnianshilongnian
spring 4.1
目录
Spring4.1新特性——综述
Spring4.1新特性——Spring核心部分及其他
Spring4.1新特性——Spring缓存框架增强
Spring4.1新特性——异步调用和事件机制的异常处理
Spring4.1新特性——数据库集成测试脚本初始化
Spring4.1新特性——Spring MVC增强
Spring4.1新特性——页面自动化测试框架Spring MVC T
- C# Ajax上传图片同时生成微缩图(附Demo)
liyonghui160com
1.Ajax无刷新上传图片,详情请阅我的这篇文章。(jquery + c# ashx)
2.C#位图处理 System.Drawing。
3.最新demo支持IE7,IE8,Fir
- Java list三种遍历方法性能比较
pda158
java
从c/c++语言转向java开发,学习java语言list遍历的三种方法,顺便测试各种遍历方法的性能,测试方法为在ArrayList中插入1千万条记录,然后遍历ArrayList,发现了一个奇怪的现象,测试代码例如以下:
package com.hisense.tiger.list;
import java.util.ArrayList;
import java.util.Iterator;
- 300个涵盖IT各方面的免费资源(上)——商业与市场篇
shoothao
seo商业与市场IT资源免费资源
A.网站模板+logo+服务器主机+发票生成
HTML5 UP:响应式的HTML5和CSS3网站模板。
Bootswatch:免费的Bootstrap主题。
Templated:收集了845个免费的CSS和HTML5网站模板。
Wordpress.org|Wordpress.com:可免费创建你的新网站。
Strikingly:关注领域中免费无限的移动优
- localStorage、sessionStorage
uule
localStorage
W3School 例子
HTML5 提供了两种在客户端存储数据的新方法:
localStorage - 没有时间限制的数据存储
sessionStorage - 针对一个 session 的数据存储
之前,这些都是由 cookie 完成的。但是 cookie 不适合大量数据的存储,因为它们由每个对服务器的请求来传递,这使得 cookie 速度很慢而且效率也不