- 使用 libev 构建 TCP 响应服务器(echo server)的简单流程
sass
基本流程创建socket,绑定socket地址Listensocket创建一个watcher,用来承载accept事件写一个callback用来做实际的accept调用创建并初始化一个watcher用来从client中读取请求写一个callback用来read启动eventloop创建socket并绑定address注意:原文例子中未显示的是,应当将fd设置为非阻塞的。带非阻塞设置的代码如下:so
- /sbin/start-dfs.sh
i757_w
hadoop
./sbin/start-dfs.shStartingnamenodeson[hadoop01]ERROR:AttemptingtooperateonhdfsnamenodeasrootERROR:butthereisnoHDFS_NAMENODE_USERdefined.Abortingoperation.StartingdatanodesERROR:Attemptingtooperateonh
- Linux环境搭建spark3 yarn模式
QYHuiiQ
大数据之Spark大数据之Hadoopspark大数据hadoop
集群规划:HostnameIPRolehadoop32001192.168.126.138NameNodeDataNodeNodeManagerhadoop32002192.168.126.139ResourceManagerDataNodeNodeManagerhadoop32003192.168.126.140Seconda
- 【面试宝典】100道Spark高频题库整理(附答案背诵版)
想念@思恋
面试宝典面试spark职场和发展
简述什么是Spark?Spark是一个开源的大数据处理框架,它被设计来进行高速度、通用性和易用性的大规模数据处理。Spark最初由加州大学伯克利分校的AMPLab开发,后来成为Apache软件基金会的顶级项目。Spark的主要特点包括:快速性:Spark使用了内存计算技术,相较于Hadoop的MapReduce,它能更快地处理大规模数据集。这是因为MapReduce在数据处理过程中频繁地将中间结果
- HDFS Shell命令基础入门实战
一个爱好编程的业余人士
Linux云计算大数据
HDFS基础知识1.HDFS是做什么的HDFS(HadoopDistributedFileSystem)是Hadoop项目的核心子项目,是分布式计算中数据存储管理的基础,是基于流数据模式访问和处理超大文件的需求而开发的,可以运行于廉价的商用服务器上。它所具有的高容错、高可靠性、高可扩展性、高获得性、高吞吐率等特征为海量数据提供了不怕故障的存储,为超大数据集(LargeDataSet)的应用处理带来
- 新书速览|Hadoop与Spark大数据全景解析(视频教学版)
全栈开发圈
大数据hadoopspark
《Hadoop与Spark大数据全景解析:视频教学版》01本书内容《Hadoop与Spark大数据全景解析:视频教学版》结合作者多年在大数据领域的开发实践经验,采用“理论+实战”的形式,以大量实例全面介绍Hadoop和Spark的基础知识及其高级应用。作者将丰富的教学经验,融入为读者精心录制的配套教学视频中,并提供了书中所有实例的源码,方便读者学习和实践。《Hadoop与Spark大数据全景解析:
- spark和hadoop的区别与联系
啊喜拔牙
sparkhadoop大数据
区别计算模式:Hadoop:基于MapReduce模型,数据处理依赖磁盘读写,任务分为Map和Reduce两个阶段,中间结果需写入磁盘,磁盘I/O成为性能瓶颈。Spark:采用内存计算,将数据存储在内存中,减少了磁盘读写开销,中间结果在内存中直接传递和处理,大大提高了计算速度。性能表现:Hadoop:更适合大规模数据的批处理任务,在处理实时数据、迭代计算等场景下,性能欠佳。其性能受磁盘I/O限制,
- hadoop与spark的区别和联系
紫韫
sparkhadoop
区别:架构Hadoop:采用主从式架构,主要由HDFS(分布式文件系统)和MapReduce(计算框架)以及YARN(资源管理系统)构成。HDFS负责数据存储,MapReduce用于数据处理,YARN进行资源的分配与调度。Spark:核心是弹性分布式数据集(RDD),基于内存计算。其架构涵盖了DriverProgram(驱动程序)、ClusterManager(集群管理器)和Executor(执行
- spark和Hadoop的区别和联系
满分对我强制爱
sparkhadoop大数据
一、Hadoop•定义•Hadoop是一个由Apache基金会开发的分布式计算平台。它主要包括HDFS(HadoopDistributedFileSystem)和MapReduce编程模型。HDFS用于存储大规模数据,它将文件分割成多个数据块(block),并将这些数据块存储在多个节点上,以实现数据的高可靠性和高吞吐量访问。MapReduce是一种并行编程模型,用于处理大规模数据集。它将任务分解为
- HDFS 的硬链接 详解
goTsHgo
Hadoophdfshadoop大数据
本文将以清晰、详细的方式,从底层原理到实现机制,逐步解释HDFS(HadoopDistributedFileSystem)的硬链接机制。为了让初学者也能理解,本文中会尽量用通俗的语言,避免使用过多的术语,并通过类比来阐明每一步的原理。由于HDFS的硬链接机制涉及底层文件系统设计,本文会结合HDFS的架构、核心组件(如NameNode和DataNode)以及相关的源代码逻辑进行说明。1.HDFS硬链
- php 的 libevent / event / ev / uv 扩展
yarn
安装挺简单的,本文的主要目的是梳理清楚这几个事件驱动库和对应的扩展之间的关系。1、ext-event/ext-libevent是libeventwrapper,推荐ext-evet,workerman在用。2、ext-ev是libevwrapper,libev要优于libevent,最新的reactPHP在用哦,其实reactPHP有EventLoop,可以根据你安装的扩展选用相应的事件驱动库,可
- java面向对象编程【基础篇】之基础概念
EnigmaCoder
javajava开发语言
目录前言面向过程VS面向对象面向过程编程(POP)面向对象编程(OOP)两者对比三大特性封装性继承性多态性类与对象类与对象的关系类的定义对象的创建和使用前言大家好!我是EnigmaCoder。本文介绍java面向对象编程的基本概念,主要包含面向对象与面向过程的区别、面向对象编程的三大特性、类与对象等。面向过程VS面向对象面向过程编程(POP)定义:以“过程”(即算法或操作步骤)为核心组织代码,将复
- 【github下载】下载文件子目录
毕业茄
github
比如我要下载这个链接下的子文件winutils的hadoop-2.7.1版本:https://github.com/steveloughran/winutils/tree/master/hadoop-2.7.1方法1:直接下载单个文件(推荐)进入GitHub文件页面:https://github.com/steveloughran/winutils/tree/master/hadoop-2.7.1
- hivesql建表语句_Hive SQL语法总结
格物龙场
hivesql建表语句
Hive是一个数据仓库基础的应用工具,在Hadoop中用来处理结构化数据,它架构在Hadoop之上,通过SQL来对数据进行操作,了解SQL的人,学起来毫不费力。Hive查询操作过程严格遵守HadoopMapReduce的作业执行模型,Hive将用户的HiveSQL语句通过解释器转换为MapReduce作业提交到Hadoop集群上,Hadoop监控作业执行过程,然后返回作业执行结果给用户。Hive并
- 文件内容课堂总结
2301_79975534
人工智能
ApacheHive是Hadoop上的SQL引擎,SparkSQL编译时可以包含Hive支持,也可以不包含。包含Hive支持的SparkSQL可以支持Hive表访问、UDF(用户自定义函数)、Hive查询语言(HQL)等。需要强调的一点是,如果要在SparkSQL中包含Hive的库,并不需要事先安装Hive。一般来说,最好还是在编译SparkSQL时引入Hive支持,这样就可以使用这些特性了。使用
- 【Hive入门】Hive分区与分桶深度解析:优化查询性能的关键技术
IT成长日记
大数据成长笔记hivehadoop数据仓库分区分桶
引言在大数据领域,ApacheHive作为构建在Hadoop之上的数据仓库工具,因其类SQL的查询语言(HiveQL)和良好的扩展性而广受欢迎。然而,随着数据量的增长,查询性能往往成为瓶颈。本文将深入探讨Hive中两种关键的数据组织技术——分区(Partitioning)和分桶(Bucketing),它们是如何显著提升查询效率的利器。1Hive分区技术详解1.1什么是分区分区(Partitioni
- C#学习第3天:类和对象的全面解析
ghost143
C#学习30天计划学习c#开发语言
在C#中,类和对象构成了面向对象编程(OOP)的基础。通过使用类和对象,开发者可以创建灵活且可维护的程序结构。本篇文章将深入探讨类与对象的基本概念及其高级应用,包括继承、多态和接口类的基本概念类是面向对象编程的基本单元,它是创建对象的模板或蓝图。在C#中,类定义了对象的数据(字段和属性)和行为(方法)。类的定义//基本的类定义publicclassPerson{//字段-存储数据privatest
- Oracle--PL/SQL编程
恐龙让Lee
Oracleoracle数据库
前言:本博客仅作记录学习使用,部分图片出自网络,如有侵犯您的权益,请联系删除PL/SQL(ProceduralLanguage/SQL)是Oracle数据库中的一种过程化编程语言,构建于SQL之上,允许编写包含SQL语句的程序。它结合了SQL的数据操纵和查询能力与过程化编程的控制结构,如IF语句和LOOP语句,支持变量定义和数据传递,能够实现复杂的业务逻辑。作为Oracle的专用语言,PL/SQL
- 大数据平台组件部署说明(pulsar、Openlookeng、Hadoop集群、hive、python、Flink、JDK、Zookeeper、MySQL、Redis等)
长空~
linux大数据hadoopjava-zookeeper
大数据平台组件部署说明1.安装前准备JDKopenlookeng和pulsar要求JDK1.8+,参考附录9.1安装教程。Zookeeper集群pulsar运行需要zookeeper集群进行资源调度服务,参考附录9.2安装教程。MySQL默认推荐使用MySQL,参考附录9.3节MySQL的安装说明,如已经安装请跳过。如果你使用其他类型的数据库,请参考对应厂商说明帮助手册进行安装。SSH免密登录Ha
- CentOS7环境脚本一键安装MySQL8
Hadoop_Liang
mysqlmysqlshell脚本
安装包准备获取下载地址选择对应的下载版本,如下图,右键RPMBundle的Download,复制下载链接地址下载安装包[hadoop@node3installfile]$wgethttps://downloads.mysql.com/archives/get/p/23/file/mysql-8.0.31-1.el7.x86_64.rpm-bundle.tar查看安装包[hadoop@node3in
- spark和Hadoop之间的对比和联系
痕517
sparkhadoop大数据
**一、联系**1.**生态系统层面**-**协同工作**:Spark和Hadoop都是大数据处理生态系统中的重要组成部分。在很多企业的大数据平台中,它们可以共同工作。例如,Hadoop的HDFS(HadoopDistributedFileSystem)可以作为Spark的数据存储层。Spark可以从HDFS读取数据进行处理,处理后的结果也可以存储回HDFS。这种组合使得数据存储和处理能够高效地结
- springboot基于Hadoop技术下的校园二手交易系统的设计与实现
Q_1928499906
javajava
摘要自从新冠疫情爆发以来,各个线下实体越来越难做,线下购物的人也越来越少,随之带来的是一些不必要的浪费,尤其是即将毕业的大学生,各种用品不方便携带走导致被遗弃,造成大量的浪费。本系统目的就是让毕业生的二手物品有一定的价值,并且在疫情环境下做到零接触买卖,更加安全。在新冠疫情下,校园二手交易系统主要是用JAVA开发的。系统根据B/S架构设计,选用springboot框架开发,Hadoop技术,编码由
- ADT和OOP自学,并撰写心得和收获
小白猿同学
设计模式作业设计模式
ADT和OOP自学,并撰写心得和收获。ADT事实上设计ADT是一个比较复杂的工作,作为一名初学者,绝大多数情况下我也是在给定的框架下进行有一部分自主性的设计而不是从头开始全部自己设计。即便如此在完成这些程序的时候我也有一些体会,感受。最初学习到这些与ADT相关的知识,我还算理解了RI,AF这些相关的概念,但我对为什么要把它们以注释的方式写在程序中非常不解,我感到这非常麻烦和枯燥,因为一个工程中往往
- 深入理解面向对象编程:从类与对象到异常处理
程序员Bears
python开发语言pycharmjupyter
前言面向对象编程(Object-OrientedProgramming,OOP)是现代编程语言中最重要、最广泛使用的编程范式之一。无论是Python、Java还是C++,OOP都扮演着核心角色。本文将带你深入理解面向对象编程的核心概念,包括类与对象、继承/多态/魔术方法,以及异常处理机制。一、类与对象:OOP的基石1.1什么是类与对象类(Class)是面向对象编程的基本构造块,它是对现实世界中一组
- 架构中 MapReduce 的资源管理和计算框架耦合 的问题
Yarn(全称为YetAnotherResourceNegotiator,译为"另一个资源协调者")在Hadoop2.0版本中引入,其诞生是为了解决Hadoop1.x架构中MapReduce的资源管理和计算框架耦合的问题。简而言之,就是之前MapReduce的资源管理和计算框架是耦合在一起的,为了解耦而设计出了Yarn。Yarn是一种新的Hadoop资源管理器,它是一个通用资源管理系统,提供统一的
- Hadoop 集群扩容新增节点操作文档
菜鸟、上路
Hadoophadoop大数据分布式
Hadoop集群扩容新增节点操作文档一、前期准备1.环境检查(所有新节点)确保JDK安装:java-version确保Hadoop安装:hadoopversion添加主机名映射(所有节点):cat>>/etc/hosts>$HADOOP_HOME/etc/hadoop/workers2.若启用了白名单,修改dfs.hostsecho"node03">>$HADOOP_HOME/etc/hadoop
- 零基础学Java——第三章:面向对象编程
qqxhb
零基础学JavaJava小学生编程java开发语言小学生编程
第三章:面向对象编程在前两章中,我们学习了Java的基础知识和核心语法。现在,我们将深入探讨Java最重要的特性之一:面向对象编程(Object-OrientedProgramming,简称OOP)。面向对象编程是一种编程范式,它使用"对象"这一概念来组织和构建程序。本章将通过生活中的例子,帮助你理解面向对象编程的核心概念。1.类与对象1.1类与对象的基本概念在面向对象编程中,"类"和"对象"是两
- Spark与Hadoop:差异、优势及如何选择
玖月贰拾
sparkhadoop大数据
Spark与Hadoop:差异、优势及如何选择一、引言在大数据处理领域,ApacheHadoop和ApacheSpark是两个非常流行的开源框架。虽然它们都致力于处理大规模数据集,但它们在设计理念、处理速度、使用场景等方面存在显著的差异。本文将详细探讨Spark与Hadoop之间的差异、各自的优势以及如何根据实际需求进行选择。二、Spark与Hadoop的主要差异处理模型:Hadoop:基于Map
- yarn的定义
yyywoaini~
java开发语言
###YARN的定义及其在Hadoop生态系统中的角色####1.**YARN的定义**YARN(YetAnotherResourceNegotiator)是Hadoop2.x版本引入的一个全新资源管理和作业调度框架。它的主要目标是分离资源管理和任务调度的功能,从而提高系统的灵活性和扩展性。YARN的设计允许不同的计算框架(如MapReduce、Spark、Flink等)在同一Hadoop集群中共
- Spark与Hadoop之间的联系与区别
直裾
sparkhadoop大数据
联系生态系统互补:Hadoop是一个分布式存储和计算平台,主要包括HDFS(分布式文件系统)和MapReduce(分布式计算框架)。Hadoop提供了可靠的数据存储和分布式计算的基础。Spark是一个高性能的分布式计算框架,可以运行在Hadoop的YARN资源管理器上,也可以直接读取HDFS上的数据。Spark与Hadoop生态系统高度兼容,可以无缝集成。Spark可以利用Hadoop的HDFS作
- 继之前的线程循环加到窗口中运行
3213213333332132
javathreadJFrameJPanel
之前写了有关java线程的循环执行和结束,因为想制作成exe文件,想把执行的效果加到窗口上,所以就结合了JFrame和JPanel写了这个程序,这里直接贴出代码,在窗口上运行的效果下面有附图。
package thread;
import java.awt.Graphics;
import java.text.SimpleDateFormat;
import java.util
- linux 常用命令
BlueSkator
linux命令
1.grep
相信这个命令可以说是大家最常用的命令之一了。尤其是查询生产环境的日志,这个命令绝对是必不可少的。
但之前总是习惯于使用 (grep -n 关键字 文件名 )查出关键字以及该关键字所在的行数,然后再用 (sed -n '100,200p' 文件名),去查出该关键字之后的日志内容。
但其实还有更简便的办法,就是用(grep -B n、-A n、-C n 关键
- php heredoc原文档和nowdoc语法
dcj3sjt126com
PHPheredocnowdoc
<!doctype html>
<html lang="en">
<head>
<meta charset="utf-8">
<title>Current To-Do List</title>
</head>
<body>
<?
- overflow的属性
周华华
JavaScript
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/1999/xhtml&q
- 《我所了解的Java》——总体目录
g21121
java
准备用一年左右时间写一个系列的文章《我所了解的Java》,目录及内容会不断完善及调整。
在编写相关内容时难免出现笔误、代码无法执行、名词理解错误等,请大家及时指出,我会第一时间更正。
&n
- [简单]docx4j常用方法小结
53873039oycg
docx
本代码基于docx4j-3.2.0,在office word 2007上测试通过。代码如下:
import java.io.File;
import java.io.FileInputStream;
import ja
- Spring配置学习
云端月影
spring配置
首先来看一个标准的Spring配置文件 applicationContext.xml
<?xml version="1.0" encoding="UTF-8"?>
<beans xmlns="http://www.springframework.org/schema/beans"
xmlns:xsi=&q
- Java新手入门的30个基本概念三
aijuans
java新手java 入门
17.Java中的每一个类都是从Object类扩展而来的。 18.object类中的equal和toString方法。 equal用于测试一个对象是否同另一个对象相等。 toString返回一个代表该对象的字符串,几乎每一个类都会重载该方法,以便返回当前状态的正确表示.(toString 方法是一个很重要的方法) 19.通用编程:任何类类型的所有值都可以同object类性的变量来代替。
- 《2008 IBM Rational 软件开发高峰论坛会议》小记
antonyup_2006
软件测试敏捷开发项目管理IBM活动
我一直想写些总结,用于交流和备忘,然都没提笔,今以一篇参加活动的感受小记开个头,呵呵!
其实参加《2008 IBM Rational 软件开发高峰论坛会议》是9月4号,那天刚好调休.但接着项目颇为忙,所以今天在中秋佳节的假期里整理了下.
参加这次活动是一个朋友给的一个邀请书,才知道有这样的一个活动,虽然现在项目暂时没用到IBM的解决方案,但觉的参与这样一个活动可以拓宽下视野和相关知识.
- PL/SQL的过程编程,异常,声明变量,PL/SQL块
百合不是茶
PL/SQL的过程编程异常PL/SQL块声明变量
PL/SQL;
过程;
符号;
变量;
PL/SQL块;
输出;
异常;
PL/SQL 是过程语言(Procedural Language)与结构化查询语言(SQL)结合而成的编程语言PL/SQL 是对 SQL 的扩展,sql的执行时每次都要写操作
- Mockito(三)--完整功能介绍
bijian1013
持续集成mockito单元测试
mockito官网:http://code.google.com/p/mockito/,打开documentation可以看到官方最新的文档资料。
一.使用mockito验证行为
//首先要import Mockito
import static org.mockito.Mockito.*;
//mo
- 精通Oracle10编程SQL(8)使用复合数据类型
bijian1013
oracle数据库plsql
/*
*使用复合数据类型
*/
--PL/SQL记录
--定义PL/SQL记录
--自定义PL/SQL记录
DECLARE
TYPE emp_record_type IS RECORD(
name emp.ename%TYPE,
salary emp.sal%TYPE,
dno emp.deptno%TYPE
);
emp_
- 【Linux常用命令一】grep命令
bit1129
Linux常用命令
grep命令格式
grep [option] pattern [file-list]
grep命令用于在指定的文件(一个或者多个,file-list)中查找包含模式串(pattern)的行,[option]用于控制grep命令的查找方式。
pattern可以是普通字符串,也可以是正则表达式,当查找的字符串包含正则表达式字符或者特
- mybatis3入门学习笔记
白糖_
sqlibatisqqjdbc配置管理
MyBatis 的前身就是iBatis,是一个数据持久层(ORM)框架。 MyBatis 是支持普通 SQL 查询,存储过程和高级映射的优秀持久层框架。MyBatis对JDBC进行了一次很浅的封装。
以前也学过iBatis,因为MyBatis是iBatis的升级版本,最初以为改动应该不大,实际结果是MyBatis对配置文件进行了一些大的改动,使整个框架更加方便人性化。
- Linux 命令神器:lsof 入门
ronin47
lsof
lsof是系统管理/安全的尤伯工具。我大多数时候用它来从系统获得与网络连接相关的信息,但那只是这个强大而又鲜为人知的应用的第一步。将这个工具称之为lsof真实名副其实,因为它是指“列出打开文件(lists openfiles)”。而有一点要切记,在Unix中一切(包括网络套接口)都是文件。
有趣的是,lsof也是有着最多
- java实现两个大数相加,可能存在溢出。
bylijinnan
java实现
import java.math.BigInteger;
import java.util.regex.Matcher;
import java.util.regex.Pattern;
public class BigIntegerAddition {
/**
* 题目:java实现两个大数相加,可能存在溢出。
* 如123456789 + 987654321
- Kettle学习资料分享,附大神用Kettle的一套流程完成对整个数据库迁移方法
Kai_Ge
Kettle
Kettle学习资料分享
Kettle 3.2 使用说明书
目录
概述..........................................................................................................................................7
1.Kettle 资源库管
- [货币与金融]钢之炼金术士
comsci
金融
自古以来,都有一些人在从事炼金术的工作.........但是很少有成功的
那么随着人类在理论物理和工程物理上面取得的一些突破性进展......
炼金术这个古老
- Toast原来也可以多样化
dai_lm
androidtoast
Style 1: 默认
Toast def = Toast.makeText(this, "default", Toast.LENGTH_SHORT);
def.show();
Style 2: 顶部显示
Toast top = Toast.makeText(this, "top", Toast.LENGTH_SHORT);
t
- java数据计算的几种解决方法3
datamachine
javahadoopibatisr-languer
4、iBatis
简单敏捷因此强大的数据计算层。和Hibernate不同,它鼓励写SQL,所以学习成本最低。同时它用最小的代价实现了计算脚本和JAVA代码的解耦,只用20%的代价就实现了hibernate 80%的功能,没实现的20%是计算脚本和数据库的解耦。
复杂计算环境是它的弱项,比如:分布式计算、复杂计算、非数据
- 向网页中插入透明Flash的方法和技巧
dcj3sjt126com
htmlWebFlash
将
Flash 作品插入网页的时候,我们有时候会需要将它设为透明,有时候我们需要在Flash的背面插入一些漂亮的图片,搭配出漂亮的效果……下面我们介绍一些将Flash插入网页中的一些透明的设置技巧。
一、Swf透明、无坐标控制 首先教大家最简单的插入Flash的代码,透明,无坐标控制: 注意wmode="transparent"是控制Flash是否透明
- ios UICollectionView的使用
dcj3sjt126com
UICollectionView的使用有两种方法,一种是继承UICollectionViewController,这个Controller会自带一个UICollectionView;另外一种是作为一个视图放在普通的UIViewController里面。
个人更喜欢第二种。下面采用第二种方式简单介绍一下UICollectionView的使用。
1.UIViewController实现委托,代码如
- Eos平台java公共逻辑
蕃薯耀
Eos平台java公共逻辑Eos平台java公共逻辑
Eos平台java公共逻辑
>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
蕃薯耀 2015年6月1日 17:20:4
- SpringMVC4零配置--Web上下文配置【MvcConfig】
hanqunfeng
springmvc4
与SpringSecurity的配置类似,spring同样为我们提供了一个实现类WebMvcConfigurationSupport和一个注解@EnableWebMvc以帮助我们减少bean的声明。
applicationContext-MvcConfig.xml
<!-- 启用注解,并定义组件查找规则 ,mvc层只负责扫描@Controller -->
<
- 解决ie和其他浏览器poi下载excel文件名乱码
jackyrong
Excel
使用poi,做传统的excel导出,然后想在浏览器中,让用户选择另存为,保存用户下载的xls文件,这个时候,可能的是在ie下出现乱码(ie,9,10,11),但在firefox,chrome下没乱码,
因此必须综合判断,编写一个工具类:
/**
*
* @Title: pro
- 挥洒泪水的青春
lampcy
编程生活程序员
2015年2月28日,我辞职了,离开了相处一年的触控,转过身--挥洒掉泪水,毅然来到了兄弟连,背负着许多的不解、质疑——”你一个零基础、脑子又不聪明的人,还敢跨行业,选择Unity3D?“,”真是不自量力••••••“,”真是初生牛犊不怕虎•••••“,••••••我只是淡淡一笑,拎着行李----坐上了通向挥洒泪水的青春之地——兄弟连!
这就是我青春的分割线,不后悔,只会去用泪水浇灌——已经来到
- 稳增长之中国股市两点意见-----严控做空,建立涨跌停版停牌重组机制
nannan408
对于股市,我们国家的监管还是有点拼的,但始终拼不过飞流直下的恐慌,为什么呢?
笔者首先支持股市的监管。对于股市越管越荡的现象,笔者认为首先是做空力量超过了股市自身的升力,并且对于跌停停牌重组的快速反应还没建立好,上市公司对于股价下跌没有很好的利好支撑。
我们来看美国和香港是怎么应对股灾的。美国是靠禁止重要股票做空,在
- 动态设置iframe高度(iframe高度自适应)
Rainbow702
JavaScriptiframecontentDocument高度自适应局部刷新
如果需要对画面中的部分区域作局部刷新,大家可能都会想到使用ajax。
但有些情况下,须使用在页面中嵌入一个iframe来作局部刷新。
对于使用iframe的情况,发现有一个问题,就是iframe中的页面的高度可能会很高,但是外面页面并不会被iframe内部页面给撑开,如下面的结构:
<div id="content">
<div id=&quo
- 用Rapael做图表
tntxia
rap
function drawReport(paper,attr,data){
var width = attr.width;
var height = attr.height;
var max = 0;
&nbs
- HTML5 bootstrap2网页兼容(支持IE10以下)
xiaoluode
html5bootstrap
<!DOCTYPE html>
<html>
<head lang="zh-CN">
<meta charset="UTF-8">
<meta http-equiv="X-UA-Compatible" content="IE=edge">