- LLM探索的时代
新加坡内哥谈技术
人工智能
每周跟踪AI热点新闻动向和震撼发展想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行!订阅:https://rengongzhineng.io/当前的大语言模型,是过去三十年人类在互联网上自由发布海量文本内容的意外副产品。IlyaS
- Gemma Chatbot 架构深度剖析:从 C++ 核心到多语言推理的工程实践
雷羿 LexChien
LLM人工智能pythonc++LLMRAG
GemmaChatbot架构深度剖析:从C++核心到多语言推理的工程实践随着大语言模型(LLM)本地化需求日益提升,如何设计一套高效、可扩展、易于维护的本地聊天系统。GemmaChatbot以C++为推理核心,结合Python前端与多语言支持,实现了高性能与灵活性的完美结合。本文将深入剖析其程序架构、模块划分、数据流设计与工程实践细节。一、总体架构设计GemmaChatbot采用“前后端分离”与“
- 当争论者还在讨论AI的边界,实践者早已用这些技术解决实际问题
渡难繁辰
人工智能拥抱AI人工智能ai
——普通人参与AI革命的关键路径一、AI应用五大核心组件(通俗拆解版)1️⃣LLM:AI的「决策核心」本质:大型语言模型(如DeepSeek、通义千问),具备语言理解与生成能力能力边界:✅处理文本类任务(写作/翻译/摘要)❌无法获取实时信息(如最新股价)⚠️存在“幻觉”(虚构信息)风险案例对比:问:“鲁迅和周树人什么关系?”基础LLM:“两位都是著名作家”(错误)增强版LLM:“周树人是鲁迅本名”
- 基于Abp Vnext、FastMCP构建一个企业级的模型即服务(MaaS)平台方案
NetX行者
AbpvnextMaasAbpvnextFastMCP企业级平台解决方案开源python
企业级MaaS平台技术可行性分析报告一、总体技术架构HTTP/WebSocketgRPC/RESTgRPC/RESTgRPCVue3前端ABPvNextAPI网关.NET9业务微服务ABPvNextMCPClientFastMCP模型仓库PyTorch/TensorFlowHuggingFaceHeyGem/ChatGLM自定义模型统一鉴权中心二、核心框架与中间件组件技术选型官方链接作用前端框架V
- 【深度学习】大模型GLM-4-9B Chat ,微调与部署(3) TensorRT-LLM、TensorRT量化加速、Triton部署
XD742971636
深度学习机器学习深度学习人工智能
文章目录获取TensorRT-LLM代码:构建docker镜像并安装TensorRT-LLM:运行docker镜像:安装依赖魔改下部分package代码:量化:构建图:全局参数插件配置常用配置参数测试推理是否可以代码推理CLI推理性能测试小结验证是否严重退化使用NVIDIATriton部署在线推理服务器代码弄下来编译镜像启动容器安装依赖量化构建trtengines图Triton模板说明实操发起Tr
- Jetson Orin NX Super安装TensorRT-LLM
u013250861
#LLM/部署&推理elasticsearch大数据搜索引擎
根据图片中显示的JetsonOrinNXSuper系统环境(JetPack6.2+CUDA12.6+TensorRT10.7),以下是针对该平台的TensorRT-LLM安装优化方案:一、环境适配调整基于你的实际配置:JetPack6.2(含CUDA12.6,TensorRT10.7)Python3.10.12aarch64架构需选择适配的TensorRT-LLM版本。由于官方预编译包可能未覆盖此
- TensorRT-LLM:大模型推理加速引擎的架构与实践
前言:技术背景与发展历程:随着GPT-4、LLaMA等千亿级参数模型的出现,传统推理框架面临三大瓶颈:显存占用高(单卡可达80GB)、计算延迟大(生成式推理需迭代处理)、硬件利用率低(Transformer结构存在计算冗余)。根据MLPerf基准测试,原始PyTorch推理的token生成速度仅为12.3tokens/s(A100显卡)。一、TensorRT-LLM介绍:TensorRT-LLM是
- 【LLM】Llama-Index 架构
FOUR_A
LLMllama架构
数据源(DataSources)PDF/文档数据库API网页音频/视频知识库自定义源数据连接器(DataConnectors)用于从各种数据源提取和加载数据,以便进行索引和查询。1.SimpleDirectoryReader含义:简单目录读取器。功能:主要用于读取本地文件系统中的目录内容。它可以列出目录中的文件和子目录,通常用于文件管理或数据预处理阶段。例如,在一个数据处理项目中,你可能需要列出某
- MCP客户端请求MCP服务器资源的Python SDK实现
AI天才研究院
计算AI人工智能与大数据Python实战python开发语言ai服务器
我将为您提供一个详细的指南,说明如何使用PythonSDK让MCP客户端请求MCP服务器的资源。MCP客户端请求MCP服务器资源的PythonSDK实现核心概念ModelContextProtocol(MCP)是一个标准化协议,允许应用程序以标准化的方式为大语言模型(LLM)提供上下文,将提供上下文的关注点与实际的LLM交互分离。MCP中的资源(Resources)是一种核心原语,允许服务器暴露数
- 人工智能LLM | 基础配置 | 通过环境变量配置API-KEY 一文通教程
H-大叔
人工智能大模型实战与教程人工智能
在实战开发大语言模型的过程中,经常会遇到各种API-KEY的配置问题,例如GPTOpenAIKEY的配置,而且目前大部分都要求将其配置在环境变量中,下面将会讲解如何在Linux、macOS、Windows中配置,本文一文通教程。您可以使用配置环境变量的方法,避免在调用各种SDK时显式地配置API-KEY,从而降低泄漏风险。环境变量是操作系统中用于存储有关系统环境的信息的变量。您可以通过环境变量来配
- 「论文导读」LLM高效推理与模型量化
雷羿 LexChien
prompt人工智能LLM论文阅读
1.论文背景作者:HugoTouvron等人,來自MetaAI来源:arXiv:2302.13971,2023年2月主题:介绍LLaMA系列模型(LLaMA-7B、13B、33B、65B),专为研究用途设计,强调高效能与低资源需求的语言模型推理。论文探讨如何通过优化训练数据、模型架构和推理技术,在有限硬体资源(如单一GPU或CPU)上实现高效推理。学术背景:随着大型语言模型(LLM)如GPT-3的
- 【深度学习新浪潮】什么是上下文长度?
小米玄戒Andrew
深度学习新浪潮深度学习人工智能LLM语言模型大模型模型优化上下文长度
大型语言模型(LLM)的上下文长度是指模型在处理当前输入时能够有效利用的历史文本长度,通常以token(如单词、子词或标点)为单位衡量。例如,GPT-4支持128Ktoken的上下文,而Llama4Scout甚至达到了10Mtoken的惊人规模。这一指标直接影响模型在长文档理解、多轮对话等复杂任务中的表现。一、上下文长度的合理范围上下文长度的选择需结合具体应用场景:日常对话:通常需要8K–32Kt
- 大模型开源与国产化突围:技术路径与产业机遇深度解析
梦玄海
开源架构golang开发语言后端大数据
引言:大模型时代的双轨竞速2023年全球大语言模型(LLM)参数量突破万亿级,GPT-4、LLaMA等模型引领技术浪潮。中国在这场竞赛中面临双重命题:既要融入全球开源生态,又要构建自主可控的技术体系。本文将从技术架构、训练范式、生态建设三个维度,深入剖析大模型开源与国产化的突围路径。一、全球开源格局与中国大模型现状1.1国际开源生态的演进特征技术民主化加速:LLaMA-2(700亿参数)、BLOO
- Prompt相关论文阅读(02)--Auto-CoT(2024-11-25)
zhilanguifang
论文promptengineering论文阅读笔记
论文阅读笔记2024-11-24~2024-11-25Auto-CoT:AutomaticChainofThoughtPromptinginLargeLanguageModels(ICLR2023)碎碎念:复现代码和笔记保存到gitee仓库上海交通大学的学生在亚马逊实习的时候的成果ICLR2023摘要:LLM能够通过生成中间推理步骤执行复杂的推理。提供这些步骤用于提示演示叫做思维链提示CoT。Co
- 多角色AI Agent:基于LLM的虚拟角色扮演系统
AI天才研究院
AI人工智能与大数据人工智能ai
多角色AIAgent:基于LLM的虚拟角色扮演系统关键词多角色AIAgentLargeLanguageModel(LLM)虚拟角色扮演系统人工智能自然语言处理程序设计摘要本文旨在探讨多角色AIAgent的基础知识以及其如何在虚拟角色扮演系统中发挥作用。我们将首先介绍多角色AIAgent的概念、历史背景和基本原理。随后,我们将深入探讨LLM(大语言模型)在虚拟角色扮演系统中的应用,包括其工作原理、核
- FastMCP:用于构建MCP服务器的开源Python框架
NetX行者
AI编程服务器开源python
在人工智能领域,模型上下文协议(ModelContextProtocol,简称MCP)作为一种标准化的协议,为大型语言模型(LLM)提供了丰富的上下文和工具支持。而FastMCP作为构建MCP服务器和客户端的Python框架,以其简洁的API设计、高效的开发体验以及强大的扩展能力,正逐渐成为开发者们的首选工具。一、FastMCP简介FastMCP是一个用于构建MCP服务器和客户端的Python框架
- ReAct (Reason and Act) OR 强化学习(Reinforcement Learning, RL)
SugarPPig
人工智能人工智能
这个问题触及了现代AI智能体(Agent)构建的两种核心思想。简单来说,ReAct是一种“调用专家”的模式,而强化学习(RL)是一种“从零试错”的模式。为了让你更清晰地理解,我们从一个生动的比喻开始,然后进行详细的对比。一个生动的比喻想象一下你要完成一项复杂的任务,比如“策划一场完美的生日派对”。ReAct的方式(像一位经验丰富的活动策划师)你是一位知识渊博的专家(大语言模型LLM)。你首先会思考
- 大语言模型与增强现实:空间计算时代的AI原生应用
Agentic AI人工智能与大数据
CS语言模型ar空间计算ai
大语言模型与增强现实:空间计算时代的AI原生应用关键词:大语言模型(LLM)、增强现实(AR)、空间计算、AI原生应用、多模态交互、具身智能、虚实融合摘要:当“能对话的AI大脑”(大语言模型)遇到“能叠加虚拟世界的魔法眼镜”(增强现实),一场空间计算时代的革命正在发生。本文将带你一步步拆解大语言模型与AR的“强强联合”:从基础概念到技术原理,从真实案例到未来趋势,用“给小学生讲故事”的方式,讲清这
- 大语言模型的具身化——LLM-based Agents实战
apollowin123
人工智能语言模型深度学习
1.概述1.1Agent是什么长期以来,研究者们一直在追求与人类相当、乃至超越人类水平的通用人工智能(ArtificialGeneralIntelligence,AGI)。早在1950年代,AlanTuring就将「智能」的概念扩展到了人工实体,并提出了著名的图灵测试。这些人工智能实体通常被称为——代理(Agent)。「代理」这一概念起源于哲学,描述了一种拥有欲望、信念、意图以及采取行动能力的实体
- 10.5 实战ChatGLM3私有数据微调之提示工程:批量生成数据稳定性秘籍
少林码僧
掌握先机!从0起步实战AI大模型微调打造核心竞争力机器学习深度学习人工智能语言模型
实战ChatGLM3私有数据微调之提示工程:批量生成数据稳定性秘籍在当今人工智能蓬勃发展的时代,大语言模型(LLMs)如ChatGLM3的出现,为自然语言处理领域带来了革命性的变化。企业和开发者们纷纷寻求利用这些强大的模型来构建定制化的应用,以满足特定业务需求。其中,使用私有数据对ChatGLM3进行微调,成为了实现差异化竞争和提供个性化服务的关键途径。然而,在微调过程中,确保批量生成数据的稳定性
- 语言大模型综述
Paper:ASurveyofLargelanguageModels目录Paper:ASurveyofLargelanguageModels综述概要LLM关键技术规模定律(ScalingLaws)预训练与微调对齐调优(AlignmentTuning)外部工具集成GPT系列模型的技术演进模型检查点和APIPre-Training数据准备和处理数据准备数据预处理数据调度架构EmergentArchit
- 一个小时快速部署大模型,附大模型书:ChatGLM3大模型本地化部署、应用开发与微调!
LLM教程
人工智能langchain知识图谱Agent大模型LLMAI
这个教程有以下几部分构成:硬件配置概念介绍实操测试结果1.硬件配置本文使用的方法配置要求低,没有gpu也可以正常使用(就是有点慢),不管是windows还是linux,都可以无障碍使用大模型,有脚就行,废话少说,let’srock!2.概念介绍几个部署要用到的概念,工具和项目huggingface:类似于模型的github,各种各样的开源模型都可以在这被找到.模型量化技术:这也是我们能够在低端设备
- 10.6 ChatGLM3私有数据微调实战:24小时打造高精度模型,显存直降60%
少林码僧
掌握先机!从0起步实战AI大模型微调打造核心竞争力chatgpt机器学习深度学习人工智能语言模型
ChatGLM3私有数据微调实战:24小时打造高精度模型,显存直降60%1.实战构造私有的微调数据集在微调大模型时,数据质量直接决定模型效果。本节将手把手教你如何构建高质量的私有微调数据集。1.1使用ChatGPT自动设计生成训练数据的Prompt核心思路:通过ChatGPT生成符合任务需求的样本数据,降低人工标注成本。步骤示例(以生成客服对话数据为例):fromlangchain.prompts
- 大语言模型(LLM)课程学习(Curriculum Learning)、数据课程(data curriculum)指南:从原理到实践
在人工智能的浪潮之巅,我们总会惊叹于GPT-4、Llama3.1、Qwen2.5这些顶尖大语言模型(LLM)所展现出的惊人能力。它们似乎无所不知,能写诗、能编程、能进行复杂的逻辑推理。一个自然而然的问题是:它们是如何“学”会这一切的?大多数人会回答:“用海量数据喂出来的。”这个答案只说对了一半。如果你认为只要把互联网上能找到的所有数据(比如15万亿个token)随机打乱,然后“一锅烩”地喂给模型,
- 巨兽的阴影:大型语言模型的挑战与伦理深渊
田园Coder
人工智能科普人工智能科普
当GPT-4这样的庞然大物能够流畅对话、撰写诗歌、编写代码、解析图像,甚至在某些测试中媲美人类专家时,大型语言模型(LLM)仿佛成为了无所不能的“智能神谕”。然而,在这令人目眩的成就之下,潜藏着复杂而严峻的挑战与伦理困境,如同光芒万丈的科技巨兽脚下那片难以忽视的深邃阴影。这些挑战并非技术进步的偶然副作用,而是深植于LLM的运作本质、训练数据来源以及其与社会交互的复杂性之中。它们警示我们,在追逐能力
- AI LLM架构与原理 - 预训练模型深度解析
陈乔布斯
AI人工智能大模型人工智能架构机器学习深度学习大模型PythonAI
一、引言在人工智能领域,大型语言模型(LLM)的发展日新月异,预训练模型作为LLM的核心技术,为模型的强大性能奠定了基础。预训练模型通过在大规模无标注数据上进行学习,能够捕捉语言的通用模式和语义信息,从而在各种自然语言处理任务中展现出卓越的能力。本文将深入探讨AILLM架构与原理中预训练模型的方法论和技术,结合图解、代码解析和实际案例,为读者呈现一个全面且易懂的预训练模型图景。二、预训练模型的基本
- 2025主流AI大模型终极指南:横向对比+实战测评+官方注册教程
AI新视界
AI工具全指南:从入门到精通解锁高效生产力人工智能
《2025主流AI大模型终极指南:横向对比+实战测评+官方注册教程》在人工智能技术飞速发展的今天,大型语言模型(LLM)已成为推动数字化转型的核心引擎。作为CSDN资深AI技术专家,我将通过本文为您全面剖析2025年主流大模型的技术特点、应用场景和性能差异,并提供详细的官方注册和使用指南,帮助您快速掌握这些强大的AI工具。一、2025年主流大模型全景概览1.1大模型技术发展现状2024-2025年
- [论文阅读] 人工智能 | 读懂Meta-Fair:让LLM摆脱偏见的自动化测试新方法
张较瘦_
前沿技术论文阅读人工智能
读懂Meta-Fair:让LLM摆脱偏见的自动化测试新方法论文标题:Meta-Fair:AI-AssistedFairnessTestingofLargeLanguageModelsarXiv:2507.02533Meta-Fair:AI-AssistedFairnessTestingofLargeLanguageModelsMiguelRomero-Arjona,JoséA.Parejo,Jua
- 开源模型应用落地-OpenAI Agents SDK-集成Qwen3-8B-探索output_guardrail的创意应用(六)
开源技术探险家
开源模型-实际应用落地开源pythonai人工智能
一、前言随着人工智能技术的迅猛发展,大语言模型(LLM)在各行各业的应用日益广泛。然而,模型生成的内容是否安全、合规、符合用户预期,成为开发者和企业不可忽视的问题。为此,OutputGuardrail应运而生,作为一种关键的安全机制,它在模型生成结果之后进行内容审核与过滤,确保输出不偏离道德、法律和业务规范。通过检测不当的内容,不仅提升了AI系统的可信度,也为构建更加稳健和负责任的人工智能应用提供
- LangGraph是为了解决哪些问题?为了解决这些问题,LangGraph采用哪些方法?LangGraph适用于什么场景?LangGraph有什么局限性?
杰瑞学AI
AI/AGINLP/LLMslangchain人工智能自然语言处理深度学习神经网络
LangGraph旨在解决的问题LangGraph是LangChain生态系统中的一个高级库,它专注于解决构建复杂、有状态、多步LLM应用程序的挑战。它扩展了LangChain的链和代理概念,尤其针对以下问题:多步决策和循环工作流:传统的链通常是线性的或简单的分支,难以处理复杂的决策路径、条件跳转以及需要循环迭代才能达到最终结果的任务。状态管理:在复杂的、多轮的LLM应用中,需要维护和管理应用的状
- java封装继承多态等
麦田的设计者
javaeclipsejvmcencapsulatopn
最近一段时间看了很多的视频却忘记总结了,现在只能想到什么写什么了,希望能起到一个回忆巩固的作用。
1、final关键字
译为:最终的
&
- F5与集群的区别
bijian1013
weblogic集群F5
http请求配置不是通过集群,而是F5;集群是weblogic容器的,如果是ejb接口是通过集群。
F5同集群的差别,主要还是会话复制的问题,F5一把是分发http请求用的,因为http都是无状态的服务,无需关注会话问题,类似
- LeetCode[Math] - #7 Reverse Integer
Cwind
java题解MathLeetCodeAlgorithm
原题链接:#7 Reverse Integer
要求:
按位反转输入的数字
例1: 输入 x = 123, 返回 321
例2: 输入 x = -123, 返回 -321
难度:简单
分析:
对于一般情况,首先保存输入数字的符号,然后每次取输入的末位(x%10)作为输出的高位(result = result*10 + x%10)即可。但
- BufferedOutputStream
周凡杨
首先说一下这个大批量,是指有上千万的数据量。
例子:
有一张短信历史表,其数据有上千万条数据,要进行数据备份到文本文件,就是执行如下SQL然后将结果集写入到文件中!
select t.msisd
- linux下模拟按键输入和鼠标
被触发
linux
查看/dev/input/eventX是什么类型的事件, cat /proc/bus/input/devices
设备有着自己特殊的按键键码,我需要将一些标准的按键,比如0-9,X-Z等模拟成标准按键,比如KEY_0,KEY-Z等,所以需要用到按键 模拟,具体方法就是操作/dev/input/event1文件,向它写入个input_event结构体就可以模拟按键的输入了。
linux/in
- ContentProvider初体验
肆无忌惮_
ContentProvider
ContentProvider在安卓开发中非常重要。与Activity,Service,BroadcastReceiver并称安卓组件四大天王。
在android中的作用是用来对外共享数据。因为安卓程序的数据库文件存放在data/data/packagename里面,这里面的文件默认都是私有的,别的程序无法访问。
如果QQ游戏想访问手机QQ的帐号信息一键登录,那么就需要使用内容提供者COnte
- 关于Spring MVC项目(maven)中通过fileupload上传文件
843977358
mybatisspring mvc修改头像上传文件upload
Spring MVC 中通过fileupload上传文件,其中项目使用maven管理。
1.上传文件首先需要的是导入相关支持jar包:commons-fileupload.jar,commons-io.jar
因为我是用的maven管理项目,所以要在pom文件中配置(每个人的jar包位置根据实际情况定)
<!-- 文件上传 start by zhangyd-c --&g
- 使用svnkit api,纯java操作svn,实现svn提交,更新等操作
aigo
svnkit
原文:http://blog.csdn.net/hardwin/article/details/7963318
import java.io.File;
import org.apache.log4j.Logger;
import org.tmatesoft.svn.core.SVNCommitInfo;
import org.tmateso
- 对比浏览器,casperjs,httpclient的Header信息
alleni123
爬虫crawlerheader
@Override
protected void doGet(HttpServletRequest req, HttpServletResponse res) throws ServletException, IOException
{
String type=req.getParameter("type");
Enumeration es=re
- java.io操作 DataInputStream和DataOutputStream基本数据流
百合不是茶
java流
1,java中如果不保存整个对象,只保存类中的属性,那么我们可以使用本篇文章中的方法,如果要保存整个对象 先将类实例化 后面的文章将详细写到
2,DataInputStream 是java.io包中一个数据输入流允许应用程序以与机器无关方式从底层输入流中读取基本 Java 数据类型。应用程序可以使用数据输出流写入稍后由数据输入流读取的数据。
- 车辆保险理赔案例
bijian1013
车险
理赔案例:
一货运车,运输公司为车辆购买了机动车商业险和交强险,也买了安全生产责任险,运输一车烟花爆竹,在行驶途中发生爆炸,出现车毁、货损、司机亡、炸死一路人、炸毁一间民宅等惨剧,针对这几种情况,该如何赔付。
赔付建议和方案:
客户所买交强险在这里不起作用,因为交强险的赔付前提是:“机动车发生道路交通意外事故”;
如果是交通意外事故引发的爆炸,则优先适用交强险条款进行赔付,不足的部分由商业
- 学习Spring必学的Java基础知识(5)—注解
bijian1013
javaspring
文章来源:http://www.iteye.com/topic/1123823,整理在我的博客有两个目的:一个是原文确实很不错,通俗易懂,督促自已将博主的这一系列关于Spring文章都学完;另一个原因是为免原文被博主删除,在此记录,方便以后查找阅读。
有必要对
- 【Struts2一】Struts2 Hello World
bit1129
Hello world
Struts2 Hello World应用的基本步骤
创建Struts2的Hello World应用,包括如下几步:
1.配置web.xml
2.创建Action
3.创建struts.xml,配置Action
4.启动web server,通过浏览器访问
配置web.xml
<?xml version="1.0" encoding="
- 【Avro二】Avro RPC框架
bit1129
rpc
1. Avro RPC简介 1.1. RPC
RPC逻辑上分为二层,一是传输层,负责网络通信;二是协议层,将数据按照一定协议格式打包和解包
从序列化方式来看,Apache Thrift 和Google的Protocol Buffers和Avro应该是属于同一个级别的框架,都能跨语言,性能优秀,数据精简,但是Avro的动态模式(不用生成代码,而且性能很好)这个特点让人非常喜欢,比较适合R
- lua set get cookie
ronin47
lua cookie
lua:
local access_token = ngx.var.cookie_SGAccessToken
if access_token then
ngx.header["Set-Cookie"] = "SGAccessToken="..access_token.."; path=/;Max-Age=3000"
end
- java-打印不大于N的质数
bylijinnan
java
public class PrimeNumber {
/**
* 寻找不大于N的质数
*/
public static void main(String[] args) {
int n=100;
PrimeNumber pn=new PrimeNumber();
pn.printPrimeNumber(n);
System.out.print
- Spring源码学习-PropertyPlaceholderHelper
bylijinnan
javaspring
今天在看Spring 3.0.0.RELEASE的源码,发现PropertyPlaceholderHelper的一个bug
当时觉得奇怪,上网一搜,果然是个bug,不过早就有人发现了,且已经修复:
详见:
http://forum.spring.io/forum/spring-projects/container/88107-propertyplaceholderhelper-bug
- [逻辑与拓扑]布尔逻辑与拓扑结构的结合会产生什么?
comsci
拓扑
如果我们已经在一个工作流的节点中嵌入了可以进行逻辑推理的代码,那么成百上千个这样的节点如果组成一个拓扑网络,而这个网络是可以自动遍历的,非线性的拓扑计算模型和节点内部的布尔逻辑处理的结合,会产生什么样的结果呢?
是否可以形成一种新的模糊语言识别和处理模型呢? 大家有兴趣可以试试,用软件搞这些有个好处,就是花钱比较少,就算不成
- ITEYE 都换百度推广了
cuisuqiang
GoogleAdSense百度推广广告外快
以前ITEYE的广告都是谷歌的Google AdSense,现在都换成百度推广了。
为什么个人博客设置里面还是Google AdSense呢?
都知道Google AdSense不好申请,这在ITEYE上也不是讨论了一两天了,强烈建议ITEYE换掉Google AdSense。至少,用一个好申请的吧。
什么时候能从ITEYE上来点外快,哪怕少点
- 新浪微博技术架构分析
dalan_123
新浪微博架构
新浪微博在短短一年时间内从零发展到五千万用户,我们的基层架构也发展了几个版本。第一版就是是非常快的,我们可以非常快的实现我们的模块。我们看一下技术特点,微博这个产品从架构上来分析,它需要解决的是发表和订阅的问题。我们第一版采用的是推的消息模式,假如说我们一个明星用户他有10万个粉丝,那就是说用户发表一条微博的时候,我们把这个微博消息攒成10万份,这样就是很简单了,第一版的架构实际上就是这两行字。第
- 玩转ARP攻击
dcj3sjt126com
r
我写这片文章只是想让你明白深刻理解某一协议的好处。高手免看。如果有人利用这片文章所做的一切事情,盖不负责。 网上关于ARP的资料已经很多了,就不用我都说了。 用某一位高手的话来说,“我们能做的事情很多,唯一受限制的是我们的创造力和想象力”。 ARP也是如此。 以下讨论的机子有 一个要攻击的机子:10.5.4.178 硬件地址:52:54:4C:98
- PHP编码规范
dcj3sjt126com
编码规范
一、文件格式
1. 对于只含有 php 代码的文件,我们将在文件结尾处忽略掉 "?>" 。这是为了防止多余的空格或者其它字符影响到代码。例如:<?php$foo = 'foo';2. 缩进应该能够反映出代码的逻辑结果,尽量使用四个空格,禁止使用制表符TAB,因为这样能够保证有跨客户端编程器软件的灵活性。例
- linux 脱机管理(nohup)
eksliang
linux nohupnohup
脱机管理 nohup
转载请出自出处:http://eksliang.iteye.com/blog/2166699
nohup可以让你在脱机或者注销系统后,还能够让工作继续进行。他的语法如下
nohup [命令与参数] --在终端机前台工作
nohup [命令与参数] & --在终端机后台工作
但是这个命令需要注意的是,nohup并不支持bash的内置命令,所
- BusinessObjects Enterprise Java SDK
greemranqq
javaBOSAPCrystal Reports
最近项目用到oracle_ADF 从SAP/BO 上调用 水晶报表,资料比较少,我做一个简单的分享,给和我一样的新手 提供更多的便利。
首先,我是尝试用JAVA JSP 去访问的。
官方API:http://devlibrary.businessobjects.com/BusinessObjectsxi/en/en/BOE_SDK/boesdk_ja
- 系统负载剧变下的管控策略
iamzhongyong
高并发
假如目前的系统有100台机器,能够支撑每天1亿的点击量(这个就简单比喻一下),然后系统流量剧变了要,我如何应对,系统有那些策略可以处理,这里总结了一下之前的一些做法。
1、水平扩展
这个最容易理解,加机器,这样的话对于系统刚刚开始的伸缩性设计要求比较高,能够非常灵活的添加机器,来应对流量的变化。
2、系统分组
假如系统服务的业务不同,有优先级高的,有优先级低的,那就让不同的业务调用提前分组
- BitTorrent DHT 协议中文翻译
justjavac
bit
前言
做了一个磁力链接和BT种子的搜索引擎 {Magnet & Torrent},因此把 DHT 协议重新看了一遍。
BEP: 5Title: DHT ProtocolVersion: 3dec52cb3ae103ce22358e3894b31cad47a6f22bLast-Modified: Tue Apr 2 16:51:45 2013 -070
- Ubuntu下Java环境的搭建
macroli
java工作ubuntu
配置命令:
$sudo apt-get install ubuntu-restricted-extras
再运行如下命令:
$sudo apt-get install sun-java6-jdk
待安装完毕后选择默认Java.
$sudo update- alternatives --config java
安装过程提示选择,输入“2”即可,然后按回车键确定。
- js字符串转日期(兼容IE所有版本)
qiaolevip
TODateStringIE
/**
* 字符串转时间(yyyy-MM-dd HH:mm:ss)
* result (分钟)
*/
stringToDate : function(fDate){
var fullDate = fDate.split(" ")[0].split("-");
var fullTime = fDate.split("
- 【数据挖掘学习】关联规则算法Apriori的学习与SQL简单实现购物篮分析
superlxw1234
sql数据挖掘关联规则
关联规则挖掘用于寻找给定数据集中项之间的有趣的关联或相关关系。
关联规则揭示了数据项间的未知的依赖关系,根据所挖掘的关联关系,可以从一个数据对象的信息来推断另一个数据对象的信息。
例如购物篮分析。牛奶 ⇒ 面包 [支持度:3%,置信度:40%] 支持度3%:意味3%顾客同时购买牛奶和面包。 置信度40%:意味购买牛奶的顾客40%也购买面包。 规则的支持度和置信度是两个规则兴
- Spring 5.0 的系统需求,期待你的反馈
wiselyman
spring
Spring 5.0将在2016年发布。Spring5.0将支持JDK 9。
Spring 5.0的特性计划还在工作中,请保持关注,所以作者希望从使用者得到关于Spring 5.0系统需求方面的反馈。