mycat分库分表之入门

以下教程为整合官方教程,主要是官方内容,但是官方内容有点乱,版本较低, 以下已完整测试及附带个人测试结果和分析。

MyCAT 1.6.7.1版本

1. 准备

1.1. 操作系统

mac
注:操作系统的不同没关系的,mycat的安装方式很简单,稍微把环境变量配上去就可以开始测试了。

1.2. 环境

数据库:

Mysql:127.0.0.1:3306。

本人当前版本为: mysql Ver 8.0.13 for macos10.14 on x86_64 (MySQL Community Server - GPL)

java

mycat是用Java开发,需要有JAVA运行环境,mycat依赖 >=jdk1.7的环境,若本机没有,则需要下载安装:<u>http://www.java.com/zh_CN/</u>.

本人版本为:

java version "1.8.0_191"

Java(TM) SE Runtime Environment (build 1.8.0_191-b12)

Java HotSpot(TM) 64-Bit Server VM (build 25.191-b12, mixed mode)

2. 下载并安装mycat

2.1. 关于mycat

获取MyCAT的最新开源版本,项目主页http://www.mycat.io/

2.2. 下载mycat

<u>http://dl.mycat.io/</u>

2.3. 安装mycat

下载并解压后,建议放在/usr/local/mycat目录下, 并加入环境变量中:

mycat

export PATH=${PATH}:/usr/local/mycat/bin.

2.4. 目录解释

--bin 启动目录

--conf 配置目录存放配置文件:

--server.xml:是Mycat服务器参数调整和用户授权的配置文件。

--schema.xml:是逻辑库定义和表以及分片定义的配置文件。

--rule.xml: 是分片规则的配置文件,分片规则的具体一些参数信息单独存放为文件,也在这个目录下,配置文件修改需要重启MyCAT。

--log4j.xml: 日志存放在logs/log中,每天一个文件,日志的配置是在conf/log4j.xml中,根据自己的需要可以调整输出级别为debug debug级别下,会输出更多的信息,方便排查问题。

--autopartition-long.txt,partition-hash-int.txt,sequence_conf.properties, sequence_db_conf.properties 分片相关的id分片规则配置文件

--lib MyCAT自身的jar包或依赖的jar包的存放目录。

--logs MyCAT日志的存放目录。日志存放在logs/log中,每天一个文件

| 附官方完整配置及个人注释

我们识别下配置中重要结构及名词解释对照

    + mycat
        + 逻辑库(虚拟库)(schema)
            + 逻辑表(虚拟表)(table)
                + 数据库实例-分片节点(dataNode)、表-分片规则(type='global' 或者 rule='xxx')
    + 数据库实例
        + 数据库实例-分片节(dataNode):对应到多个数据库实例
        + 节点主机(物理主机)(dataHost):对应到一个数据库实例存在于多少台主机(主主复制+主从复制))
            + 写主机(writeHost): 多个主主复制的主主机
                + 读主机(readHost):多个主从复制的从主机

server.xml

<?xml version="1.0" encoding="UTF-8"?>
<!-- 
    -server.xml:是Mycat服务器参数调整和用户授权的配置文件。

    -schema.xml:是逻辑库定义和表以及分片定义的配置文件。

    -rule.xml:  是分片规则的配置文件,分片规则的具体一些参数信息单独存放为文件,也在这个目录下,配置文件修改需要重启MyCAT。

    -log4j.xml: 日志存放在logs/log中,每天一个文件,日志的配置是在conf/log4j.xml中,根据自己的需要可以调整输出级别为debug。debug级别下,会输出更多的信息,方便排查问题。

    -autopartition-long.txt,partition-hash-int.txt,sequence_conf.properties, sequence_db_conf.properties 分片相关的id分片规则配置文件

    -lib        MyCAT自身的jar包或依赖的jar包的存放目录。

    -logs        MyCAT日志的存放目录。日志存放在logs/log中,每天一个文件
 -->
<!-- - - Licensed under the Apache License, Version 2.0 (the "License"); 
    - you may not use this file except in compliance with the License. - You 
    may obtain a copy of the License at - - http://www.apache.org/licenses/LICENSE-2.0 
    - - Unless required by applicable law or agreed to in writing, software - 
    distributed under the License is distributed on an "AS IS" BASIS, - WITHOUT 
    WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. - See the 
    License for the specific language governing permissions and - limitations 
    under the License. -->
<!DOCTYPE mycat:server SYSTEM "server.dtd">
<mycat:server xmlns:mycat="http://io.mycat/">
    <system>
        <property name="nonePasswordLogin">0</property> <!-- 0为需要密码登陆、1为不需要密码登陆 ,默认为0,设置为1则需要指定默认账户-->
        <property name="useHandshakeV10">1</property>
        <property name="useSqlStat">0</property>  <!-- 1为开启实时统计、0为关闭 -->
        <property name="useGlobleTableCheck">0</property>  <!-- 1为开启全加班一致性检测、0为关闭 -->

        <property name="sequnceHandlerType">2</property>
        <!--<property name="sequnceHandlerPattern">(?:(\s*next\s+value\s+for\s*MYCATSEQ_(\w+))(,|\)|\s)*)+</property>-->
        <!--必须带有MYCATSEQ_或者 mycatseq_进入序列匹配流程 注意MYCATSEQ_有空格的情况-->
        <property name="sequnceHandlerPattern">(?:(\s*next\s+value\s+for\s*MYCATSEQ_(\w+))(,|\)|\s)*)+</property>
        <property name="subqueryRelationshipCheck">false</property> <!-- 子查询中存在关联查询的情况下,检查关联字段中是否有分片字段 .默认 false -->
        <!--  <property name="useCompression">1</property>--> <!--1为开启mysql压缩协议-->
        <!--  <property name="fakeMySQLVersion">5.6.20</property>--> <!--设置模拟的MySQL版本号-->
        <!-- <property name="processorBufferChunk">40960</property> -->
        <!-- 
        <property name="processors">1</property> 
        <property name="processorExecutor">32</property> 
         -->
        <!--默认为type 0: DirectByteBufferPool | type 1 ByteBufferArena | type 2 NettyBufferPool -->
        <property name="processorBufferPoolType">0</property>
        <!--默认是65535 64K 用于sql解析时最大文本长度 -->
        <!--<property name="maxStringLiteralLength">65535</property>-->
        <!--<property name="sequnceHandlerType">0</property>-->
        <!--<property name="backSocketNoDelay">1</property>-->
        <!--<property name="frontSocketNoDelay">1</property>-->
        <!--<property name="processorExecutor">16</property>-->
        <!--
        <property name="serverPort">8066</property> <property name="managerPort">9066</property> 
        <property name="idleTimeout">300000</property> <property name="bindIp">0.0.0.0</property> 
        <property name="frontWriteQueueSize">4096</property> <property name="processors">32</property> -->
        <!--分布式事务开关,0为不过滤分布式事务,1为过滤分布式事务(如果分布式事务内只涉及全局表,则不过滤),2为不过滤分布式事务,但是记录分布式事务日志-->
        <property name="handleDistributedTransactions">0</property>
        
        <!--
            off heap for merge/order/group/limit      1开启   0关闭
        -->
        <property name="useOffHeapForMerge">0</property>

        <!--
            单位为m
        -->
        <property name="memoryPageSize">64k</property>

        <!--
            单位为k
        -->
        <property name="spillsFileBufferSize">1k</property>

        <property name="useStreamOutput">0</property>

        <!--
            单位为m
        -->
        <property name="systemReserveMemorySize">384m</property>


        <!--是否采用zookeeper协调切换  -->
        <property name="useZKSwitch">false</property>

        <!-- XA Recovery Log日志路径 -->
        <!--<property name="XARecoveryLogBaseDir">./</property>-->

        <!-- XA Recovery Log日志名称 -->
        <!--<property name="XARecoveryLogBaseName">tmlog</property>-->
        <!--如果为 true的话 严格遵守隔离级别,不会在仅仅只有select语句的时候在事务中切换连接-->
        <property name="strictTxIsolation">false</property>
        
        <property name="useZKSwitch">true</property>
        
    </system>
    
    <!-- 全局SQL防火墙设置 -->
    <!--白名单可以使用通配符%或着*-->
    <!--例如<host host="127.0.0.*" user="root"/>-->
    <!--例如<host host="127.0.*" user="root"/>-->
    <!--例如<host host="127.*" user="root"/>-->
    <!--例如<host host="1*7.*" user="root"/>-->
    <!--这些配置情况下对于127.0.0.1都能以root账户登录-->
    <!--
    <firewall>
       <whitehost>
          <host host="1*7.0.0.*" user="root"/>
       </whitehost>
       <blacklist check="false">
       </blacklist>
    </firewall>
    -->

    <!-- 
        配置Mycat逻辑库与用户
    -->
    <user name="root" defaultAccount="true">
        <property name="password">123456</property>
        <property name="schemas">TESTDB</property>
        
        <!-- 表级 DML 权限设置 -->
        <!--        
        <privileges check="false">
            <schema name="TESTDB" dml="0110" >
                <table name="tb01" dml="0000"></table>
                <table name="tb02" dml="1111"></table>
            </schema>
        </privileges>       
         -->
    </user>

    <user name="user">
        <property name="password">user</property>
        <property name="schemas">TESTDB</property>
        <property name="readOnly">true</property>
    </user>

</mycat:server>

schema.xml

<?xml version="1.0"?>
<!DOCTYPE mycat:schema SYSTEM "schema.dtd">
<mycat:schema xmlns:mycat="http://io.mycat/">
    <!-- 
        逻辑库定义和表以及分片定义的配置文件 
    -->
    <!--  
        逻辑库
    -->
    <schema name="TESTDB" checkSQLschema="false" sqlMaxLimit="100">
        <!--  
            逻辑表配置 name=xxx;表分片规则 rule=xxx
        -->
        <!-- auto sharding by id (long) -->
        <table name="travelrecord" dataNode="dn1,dn2,dn3" rule="auto-sharding-long" />

        <!-- global table is auto cloned to all defined data nodes ,so can join with any table whose sharding node is in the same data node -->
        <table name="company" primaryKey="ID" type="global" dataNode="dn1,dn2,dn3" />
        <table name="goods" primaryKey="ID" type="global" dataNode="dn1,dn2" />
        
        <!-- 分片规则为取模时,与逻辑表中定义的分片节点顺序有关,从左到右索引从0开始递增(分片节点个数-1) -->
        <!-- random sharding using mod sharind rule -->
        <table name="hotnews" primaryKey="ID" autoIncrement="true" dataNode="dn1,dn2,dn3" rule="mod-long" />
        <!-- <table name="dual" primaryKey="ID" dataNode="dnx,dnoracle2" type="global" needAddLimit="false"/> <table name="worker" primaryKey="ID" dataNode="jdbc_dn1,jdbc_dn2,jdbc_dn3" rule="mod-long" /> -->

        <table name="employee" primaryKey="ID" dataNode="dn1,dn2" rule="sharding-by-intfile" />
        <table name="customer" primaryKey="ID" dataNode="dn1,dn2" rule="sharding-by-intfile">
            <childTable name="orders" primaryKey="ID" joinKey="customer_id" parentKey="id">
                <childTable name="order_items" joinKey="order_id" parentKey="id" />
            </childTable>
            <childTable name="customer_addr" primaryKey="ID" joinKey="customer_id" parentKey="id" />
        </table>
        <!-- <table name="oc_call" primaryKey="ID" dataNode="dn1$0-743" rule="latest-month-calldate" /> -->
    </schema>

    <!--  
        分片节点:配置分片(dataNode)
    -->
    <!-- <dataNode name="dn1$0-743" dataHost="localhost1" database="db$0-743" /> -->
    <dataNode name="dn1" dataHost="localhost1" database="db1" />
    <dataNode name="dn2" dataHost="localhost1" database="db2" />
    <dataNode name="dn3" dataHost="localhost1" database="db3" />
    <!--<dataNode name="dn4" dataHost="sequoiadb1" database="SAMPLE" />
    <dataNode name="jdbc_dn1" dataHost="jdbchost" database="db1" />
    <dataNode   name="jdbc_dn2" dataHost="jdbchost" database="db2" />
    <dataNode name="jdbc_dn3"   dataHost="jdbchost" database="db3" /> -->

    <!--  
        节点主机:配置物理库分片映射(dataHost)

        修改dataHost和schema对应的连接信息,user,pay 垂直切分后的配置如下所示:

        schema 是实际逻辑库的配置,user,pay分别对应两个逻辑库,多个schema代表多个逻辑库。

        dataNode是逻辑库对应的分片,如果配置多个分片只需要多个dataNode即可。

        dataHost是实际的物理库配置地址,可以配置多主主从等其他配置,多个dataHost代表分片对应的物理库地址,下面的writeHost、readHost代表该分片是否配置多写,主从,读写分离等高级特性。
    -->
    <!-- 
        (1)设置 balance="1"与writeType="0"
            Balance参数设置:
                1. balance=“0”, 所有读操作都发送到当前可用的writeHost上。
                2. balance=“1”,所有读操作都随机的发送到readHost。
                3. balance=“2”,所有读操作都随机的在writeHost、readhost上分发
            WriteType参数设置:
                1. writeType=“0”, 所有写操作都发送到可用的writeHost上。
                2. writeType=“1”,所有写操作都随机的发送到readHost。
                3. writeType=“2”,所有写操作都随机的在writeHost、readhost分上发。
                “readHost是从属于writeHost的,即意味着它从那个writeHost获取同步数据,因此,当它所属的writeHost宕机了,则它也不会再参与到读写分离中来,即“不工作了”,这是因为此时,它的数据已经“不可靠”了。基于这个考虑,目前mycat 1.3和1.4版本中,若想支持MySQL一主一从的标准配置,并且在主节点宕机的情况下,从节点还能读取数据,则需要在Mycat里配置为两个writeHost并设置banlance=1。”
                注意:请不要配置writeType=1,会导致数据库不一致的严重问题。

            重点测试balance = 1 & wirteType = 0 时
                 | writeHost | 是否存在readHost | readHost | 查询                                                  | 更新                            | 注意                                                                                                                                                                                                                                                                                                                                         |
                 | 正常      | 是               | 正常     | 优先readHost                                          | 优先writeHost优先               | 当只有一个writeHost时,因为readHost属于writeHost,当writeHost不可用时,readHost同样不可以使用。当有多个writeHost时,其中一个writeHost有故障且包含readHost,而其他writeHost可用时,readHost可用到心跳检测后,因为已经判定其父主机writeHost不可用。然后切换到可用的writeHost主机。若其他writeHost有不可用的则所有的writeHost和readHost将不可用 |
                 | 正常      | 否               | 无       | writeHost                                             | writeHost                       |   当有多个writeHost且有一个故障时,在心跳检测之前所有的writeHost都不可用,检测过后可用的writeHost正常使用。                                                                                                                                                                                                                                                                                                                                           |
                 | 正常      | 是               | 不正常   | 先尝试readHost,等到心跳检测到故障点后切换到writeHost |       无延迟,直接使用writeHost |  当writeHost中包含多个readHost时,有其中一个readHost故障则,切换到故障的readHost时会自动切换到WriteHost中,而正常的readHost不受影响。                                                                                                                                                                                                                                                                                                                                            |
        (2)设置 switchType="2" 与slaveThreshold="100"
            - -1 表示不自动切换
            - 1 默认值,自动切换
            - 2 基于MySQL主从同步的状态决定是否切换
            “Mycat心跳检查语句配置为 show slave status ,dataHost 上定义两个新属性: switchType="2" 与slaveThreshold="100",此时意味着开启MySQL主从复制状态绑定的读写分离与切换机制。Mycat心跳机制通过检测 show slave status 中的 "Seconds_Behind_Master", "Slave_IO_Running", "Slave_SQL_Running" 三个字段来确定当前主从同步的状态以及Seconds_Behind_Master主从复制时延。“

        !!!注意:配置writeHost与readHost的使用,需要配合mysql服务器做主从或者主主或者集群!!!!
     -->

    <dataHost name="localhost1" maxCon="1000" minCon="10" balance="1" writeType="0" dbType="mysql" dbDriver="native" switchType="1"  slaveThreshold="100"> 
        <heartbeat>select user()</heartbeat>
        <!-- mycat连接的数据库配置(mysql服务器) -->
        <!-- 根据节点主机 dataHost name="localhost1" 对应的分片节点 dataNode 包含三个数据库:db1、db2、db3,则数据库在建表时应将数据库建立好 -->
        <!-- can have multi write hosts -->
        <writeHost host="hostM4" url="192.168.99.100:33060" user="root" password="p" >
            <!-- <readHost host="hostS4" url="192.168.99.100:33061" user="root" password="p" /> -->
            <!-- <readHost host="hostS41" url="127.0.0.1:3306" user="root" password="leeprince" /> -->
        </writeHost>
        <writeHost host="hostM1" url="127.0.0.1:3306" user="root" password="leeprince">
            <!-- <readHost host="hostM3" url="192.168.99.100:33060" user="root" password="p" />
            <readHost host="hostS1" url="192.168.99.100:33061" user="root" password="p" /> -->
        </writeHost>
        <!-- <writeHost host="hostM2" url="192.168.99.100:33060" user="root" password="p">
            <readHost host="hostS2" url="192.168.99.100:33061" user="root" password="p" />
        </writeHost> -->
        <!-- <writeHost host="hostM3" url="192.168.99.100:33060" user="root" password="p" /> -->
        
    </dataHost>
    
    <!-- <dataHost name="sequoiadb1" maxCon="1000" minCon="1" balance="0" dbType="sequoiadb" dbDriver="jdbc">
        <heartbeat>         </heartbeat>
        <writeHost host="hostM1" url="sequoiadb://1426587161.dbaas.sequoialab.net:11920/SAMPLE" user="jifeng"   password="jifeng">
            
        </writeHost>
    </dataHost> -->

    <!-- <dataHost name="oracle1" maxCon="1000" minCon="1" balance="0" writeType="0"    dbType="oracle" dbDriver="jdbc"> 
        <heartbeat>select 1 from dual</heartbeat>
        <connectionInitSql>alter session set nls_date_format='yyyy-mm-dd hh24:mi:ss'</connectionInitSql>
        <writeHost host="hostM1" url="jdbc:oracle:thin:@127.0.0.1:1521:nange" user="base"   password="123456" > 

        </writeHost> 
    </dataHost> -->

    <!-- <dataHost name="jdbchost" maxCon="1000"    minCon="1" balance="0" writeType="0" dbType="mongodb" dbDriver="jdbc">
        <heartbeat>select   user()</heartbeat>
        <writeHost host="hostM" url="mongodb://192.168.0.99/test" user="admin" password="123456" >
            
        </writeHost> 
    </dataHost> -->

    <!-- <dataHost name="sparksql" maxCon="1000" minCon="1" balance="0" dbType="spark" dbDriver="jdbc">
        <heartbeat> </heartbeat>
        <writeHost host="hostM1" url="jdbc:hive2://feng01:10000" user="jifeng"  password="jifeng">
            
        </writeHost> 
     </dataHost>  -->

    <!-- <dataHost name="jdbchost" maxCon="1000" minCon="10" balance="0" dbType="mysql" dbDriver="jdbc"> 
        <heartbeat>select user()</heartbeat> 
        <writeHost host="hostM1" url="jdbc:mysql://localhost:3306" user="root" password="123456"> </writeHost>
    </dataHost> -->
</mycat:schema>
rule.xml

<?xml version="1.0" encoding="UTF-8"?>
<!-- 
    分片规则的配置文件,分片规则的具体一些参数信息单独存放为文件,也在这个目录下,配置文件修改需要重启MyCAT 
-->
<!-- - - Licensed under the Apache License, Version 2.0 (the "License"); 
    - you may not use this file except in compliance with the License. - You 
    may obtain a copy of the License at - - http://www.apache.org/licenses/LICENSE-2.0 
    - - Unless required by applicable law or agreed to in writing, software - 
    distributed under the License is distributed on an "AS IS" BASIS, - WITHOUT 
    WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. - See the 
    License for the specific language governing permissions and - limitations 
    under the License. -->
<!DOCTYPE mycat:rule SYSTEM "rule.dtd">
<mycat:rule xmlns:mycat="http://io.mycat/">
    <!-- 
        name 为schema.xml 中table 标签中对应的 rule="sharding-by-hour" ,也就是配置表的分片规则,
        columns 是表的切分字段: createTime 创建日期。
        algorithm 是规则对应的切分规则:映射到function 的name。
    -->

    <tableRule name="rule1">
        <rule>
            <columns>id</columns>
            <algorithm>func1</algorithm>
        </rule>
    </tableRule>

    <tableRule name="rule2">
        <rule>
            <columns>user_id</columns>
            <algorithm>func1</algorithm>
        </rule>
    </tableRule>

    <tableRule name="sharding-by-intfile">
        <rule>
            <columns>sharding_id</columns>
            <algorithm>hash-int</algorithm>
        </rule>
    </tableRule>
    <tableRule name="auto-sharding-long">
        <rule>
            <columns>id</columns>
            <algorithm>rang-long</algorithm>
        </rule>
    </tableRule>
    <tableRule name="mod-long">
        <rule>
            <columns>id</columns>
            <algorithm>mod-long</algorithm>
        </rule>
    </tableRule>
    <tableRule name="sharding-by-murmur">
        <rule>
            <columns>id</columns>
            <algorithm>murmur</algorithm>
        </rule>
    </tableRule>
    <tableRule name="crc32slot">
        <rule>
            <columns>id</columns>
            <algorithm>crc32slot</algorithm>
        </rule>
    </tableRule>
    <tableRule name="sharding-by-month">
        <rule>
            <columns>create_time</columns>
            <algorithm>partbymonth</algorithm>
        </rule>
    </tableRule>
    <tableRule name="latest-month-calldate">
        <rule>
            <columns>calldate</columns>
            <algorithm>latestMonth</algorithm>
        </rule>
    </tableRule>
    
    <tableRule name="auto-sharding-rang-mod">
        <rule>
            <columns>id</columns>
            <algorithm>rang-mod</algorithm>
        </rule>
    </tableRule>
    
    <tableRule name="jch">
        <rule>
            <columns>id</columns>
            <algorithm>jump-consistent-hash</algorithm>
        </rule>
    </tableRule>

    <function name="murmur" class="io.mycat.route.function.PartitionByMurmurHash">
        <property name="seed">0</property><!-- 默认是0 -->
        <property name="count">2</property><!-- 要分片的数据库节点数量,必须指定,否则没法分片 -->
        <property name="virtualBucketTimes">160</property><!-- 一个实际的数据库节点被映射为这么多虚拟节点,默认是160倍,也就是虚拟节点数是物理节点数的160倍 -->
        <!-- <property name="weightMapFile">weightMapFile</property> 节点的权重,没有指定权重的节点默认是1。以properties文件的格式填写,以从0开始到count-1的整数值也就是节点索引为key,以节点权重值为值。所有权重值必须是正整数,否则以1代替 -->
        <!-- 用于测试时观察各物理节点与虚拟节点的分布情况,如果指定了这个属性,会把虚拟节点的murmur hash值与物理节点的映射按行输出到这个文件,没有默认值,如果不指定,就不会输出任何东西 -->
        <property name="bucketMapPath">/etc/mycat/bucketMapPath</property> 
    </function>

    <function name="crc32slot" class="io.mycat.route.function.PartitionByCRC32PreSlot">
    </function>
    <function name="hash-int" class="io.mycat.route.function.PartitionByFileMap">
        <property name="mapFile">partition-hash-int.txt</property>
    </function>
    <function name="rang-long" class="io.mycat.route.function.AutoPartitionByLong">
        <property name="mapFile">autopartition-long.txt</property>
    </function>
    <function name="mod-long" class="io.mycat.route.function.PartitionByMod">
        <!-- how many data nodes -->
        <property name="count">3</property>
    </function>

    <function name="func1" class="io.mycat.route.function.PartitionByLong">
        <property name="partitionCount">8</property>
        <property name="partitionLength">128</property>
    </function>
    <function name="latestMonth" class="io.mycat.route.function.LatestMonthPartion">
        <property name="splitOneDay">24</property>
    </function>
    <function name="partbymonth" class="io.mycat.route.function.PartitionByMonth">
        <property name="dateFormat">yyyy-MM-dd</property>
        <property name="sBeginDate">2015-01-01</property>
    </function>
    
    <function name="rang-mod" class="io.mycat.route.function.PartitionByRangeMod">
            <property name="mapFile">partition-range-mod.txt</property>
    </function>
    
    <function name="jump-consistent-hash" class="io.mycat.route.function.PartitionByJumpConsistentHash">
        <property name="totalBuckets">3</property>
    </function>
</mycat:rule>

2.4.1. bin 程序目录

存放了window版本、linux版本 、mac,除了提供封装成服务的版本之外,也提供了nowrap的shell脚本命令,方便大家选择和修改

2.4.2. conf目录下存放配置文件

server.xml是Mycat服务器参数调整和用户授权的配置文件,schema.xml是逻辑库定义和表以及分片定义的配置文件,rule.xml是分片规则的配置文件,分片规则的具体一些参数信息单独存放为文件,也在这个目录下,配置文件修改,需要重启Mycat或者通过9066端口reload。

提示:访问MyCAT的用户账号和授权信息是在conf/server.xml文件中配置,而MyCAT用来连接后端MySQL库的用户名密码信息则在conf/schema.xml中,这是两套完全独立的系统,类似的还有MyCAT的逻辑库(schema),逻辑表(table)也是类似的。

2.4.3. 日志存放在logs/mycat.log

每天一个文件,日志的配置是在conf/log4j.xml中,根据自己的需要,可以调整输出级别为debug,debug级别下,会输出更多的信息,方便排查问题。

注意,wrap方式的程序,其JVM配置参数在conf/wrap.conf中,可以修改为合适的参数,参数调整参照http://wrapper.tanukisoftware.com/doc/english/properties.html。用下面是一段实例:

注:mycat必须依赖 >=jdk1.7,在1.6的情景下会报错,如果机器未升级可以指定jdk的目录,我考了一个jdk的包出来的,添加的绝对路径,根据情况定。

wrapper.java.command=/usr/local/Mycat/jdk1.7.0/bin/java

Java Additional Parameters

wrapper.java.additional.5=-XX:MaxDirectMemorySize=2G

wrapper.java.additional.6=-Dcom.sun.management.jmxremote

Initial Java Heap Size (in MB)

wrapper.java.initmemory=2048

Maximum Java Heap Size (in MB)

wrapper.java.maxmemory=2048

若启动报内存不够,可以试着将上述内存都改小,改为1G或500M。

3. 关于mycat命令,并启动

./mycat start 启动

./mycat stop 停止

./mycat console 前台运行

./mycat install 添加到系统自动启动(暂未实现)

./mycat remove 取消随系统自动启动(暂未实现)

./mycat restart 重启服务

./mycat pause 暂停

./mycat status 查看启动状态

4. 启动mysql

用命令行工具或图形化客户端,连接MYSQL,创建DEMO所用三个分片数据库;

CREATE database db1;

CREATE database db2;

CREATE database db3;

注意:若是LINUX版本的MYSQL,则需要设置为Mysql大小写不敏感,否则可能会发生表找不到的问题。windows与mac不需要

注:在MySQL的配置文件中my.ini [mysqld] 中增加一行

lower_case_table_names = 1

5. 修改配置并启动mycat

5.1. 修改配置

编辑MYCAT_HOME/conf/schema.xml文件,修改节点主机dataHost对应的连接信息:

<dataNode name="dn1" dataHost="localhost1" database="db1" />

<dataNode name="dn2" dataHost="localhost1" database="db2" />

<dataNode name="dn3" dataHost="localhost1" database="db3" />

<dataHost name="localhost1" maxCon="1000" minCon="10" balance="0" writeType="0" dbType="mysql" dbDriver="native" switchType="1"  slaveThreshold="100">

    <heartbeat>select user()</heartbeat>

    <!-- mycat连接的数据库配置(mysql服务器) -->

    <!-- 根据节点主机 dataHost name="localhost1" 对应的分片节点 dataNode 包含三个数据库:db1、db2、db3,则数据库在建表时应将数据库建立好 -->

    <!-- can have multi write hosts -->

    <writeHost host="hostM1" url="127.0.0.1:3306" user="root" password="leeprince">

        <!-- can have multi read hosts -->

        <!-- <readHost host="hostS2" url="192.168.1.200:3306" user="root" password="xxx" /> -->

    </writeHost>

    <!-- <writeHost host="hostS1" url="localhost:3316" user="root" password="123456" /> -->

    <!-- <writeHost host="hostM2" url="localhost:3316" user="root" password="123456"/> -->

</dataHost>

注意writeHost/readHost中的location,user,password的值符合你所采用的Mysql的连接信息。

修改完成后保存

5.2. 启动mycat

进入到MYCAT_HOME/bin(如果已经配置则直接mycat)目录下,执行启动命令:mycat start

注意,默认数据端口为8066,管理端口为9066。

6. 连接mycat

6.1.客户端连接

客户端也可以用图形化的客户端如:mysqlworkbench、 navicat 、以及一些基于Java的数据库客户端来访问,注意要填写端口号8066
客户端连接之后如果报如下错误,请忽略,原因mycat与mysql正在连接或者有延迟

  1. 3000 - No MyCAT Database selected

  2. 1064 - find no Route:SELECT user, host, password, ssl_type, ssl_cipher, x509_issuer, x509_subject, max_questions, max_updates, max_connections, super_priv, max_user_connections FROM mysql.user ORDER BY user

6.2.命令连接

命令行运行:mysql -uroot -p123456 -h127.0.0.1 -P8066 -DTESTDB --default_auth=mysql_native_password 就能访问了,以下操作都在此命令行里执行(JDBC则将mysql的URL中的端口3306改为8066即可)

mysql -uroot -p123456 -h127.0.0.1 -P8066 -DTESTDB --default_auth=mysql_native_password
说明:
--default_auth=mysql_native_password

本人数据库是mysql8.0.13,由于版本原因,不加则报错:ERROR 1045 (HY000): Access denied for user 'root', because password is error;这是因为与5.7的验证插件有关,mysql8默认为:caching_sha2_password;5.7默认为:mysql_native_password

127.0.0.1 不能替换为localhost

具体原因请查看源码

注:9066端口是管理端口,相关命令在连接进入之后,通过show @@help查看

7. 测试逻辑库、逻辑表、分片节点、分片规则、节点主机

7.1. employee表

Employee表,是根据规则sharding-by-intfile (分片字段为sharding_id)进行分片。创建employee表:输入如下SQL

create table employee (id int not null primary key,name varchar(100),sharding_id int not null);

运行explain指令,查看该SQL被发往哪些分片节点执行:

explaincreate table employee (id int not null primary key,name varchar(100),sharding_id int not null);

建议参照schema.xml中employee表的定义,以及其分片规则,来看看什么数据会出现在dn1上,什么数据会出现在dn2上。

温馨提示:explain可以用于任何正确的SQL上,其作用是告诉你,这条SQL会路由到哪些分片节点上执行,这对于诊断分片相关的问题很有帮助。另外,explain可以安全的执行多次,它仅仅是告诉你SQL的路由分片,而不会执行该SQL。

插入数据:

insert into employee(id,name,sharding_id) values(1,'leader us',10000);

insert into employee(id,name,sharding_id) values(2, 'me',10010);

insert into employee(id,name,sharding_id) values(3, 'mycat',10000);

insert into employee(id,name,sharding_id) values(4, 'mydog',10010);

7.2. company表

company表是根据规则auto-sharding-long(主键范围)进行分片。

创建company表:输入如下SQL

create table company(id int not null primary key,name varchar(100));

录入数据:

 insert into company(id,name) values(1,'hp');

 insert into company(id,name) values(2,'ibm');

 insert into company(id,name) values(3,'oracle');

你会看到三个分片上都插入了3条数据,因为company定义为全局表,用explain来确认这个情况:

explain insert into company(id,name) values(1,'hp')

返回3个节点的信息:

| DATA_NODE | SQL |

+-----------+---------------------------------------------+

| dn1 | insert into company(id,name) values(1,'hp') |

| dn2 | insert into company(id,name) values(1,'hp') |

| dn3 | insert into company(id,name) values(1,'hp') |

+-----------+---------------------------------------------+

7.3. customer****表

创建表:

create table customer(id int not null primary key,name varchar(100),company_id int not null,sharding_id int not null);

插入数据:

insert into customer (id,name,company_id,sharding_id )values(1,'wang',1,10000); //stored in db1;

insert into customer (id,name,company_id,sharding_id )values(2,'xue',2,10010); //stored in db2;

insert into customer (id,name,company_id,sharding_id )values(3,'feng',3,10000); //stored in db1;

查询结果:

Select * from customer;

explain Select * from customer; (确认数据是分片存储)

7.4. orders****表

创建表格orders,并插入数据:

create table orders (id int not null primary key ,customer_id int not null,sataus int ,note varchar(100) );

insert into orders(id,customer_id) values(1,1); //stored in db1 because customer table with id=1 stored in db1

insert into orders(id,customer_id) values(2,2); //stored in db2 because customer table with id=1 stored in db2

查询,支持JOIN!

  1. select customer.name ,orders.* from customer ,orders where customer.id=orders.customer_id;

  2. select t1.name ,t2.* from customer t1 ,orders t2where t1.id = t2.customer_id;

  3. selectt1.name ,t2.* from customer t1 join orders t2 on t1.id = t2.customer_id

7.5. travelrecord****表

travelrecord根据ID主键的范围进行分片:

create travelrecord: create table travelrecord (id bigint not null primary key,user_id varchar(100),traveldate DATE, fee decimal,days int);

insert into travelrecord (id,user_id,traveldate,fee,days) values(1,'wang','2014-01-05',510.5,3);这个ID就存放在分片0上了

explain insert into travelrecord (id,user_id,traveldate,fee,days) values(7000001,'wang','2014-01-05',510.5,3); 这个ID就存放在分片1上了

7.6. hotnews****表

热点新闻,用取摸的方式随机分配到dn1,dn2,dn3上

create table hotnews(id int not null primary key ,title varchar(400) ,created_time datetime);

插入数据

insert into hotnews(id,title,created_time) values(1,'first',now()); 在分片1上

而Id为5,则到dn3上,5%3=2 ,即对应dn3的 index

7.7. goods表

全局表是自动克隆到所有已定义的数据节点上的,因此可以与其位于分片节点中同一数据节点中的任何表连接(join)。

创建表

create table goods(id int not null primary key,name varchar(200),good_type tinyint,good_img_url varchar(200),good_created date,good_desc varchar(500), price double);

插入数据

INSERT INTO goods(id, name, good_type, good_img_url, good_created, good_desc, price) VALUES (1, 'googsprince01', 1, 'http://www.xx.com/imgs.jpg', '2019-10-22', 'princedesc01', 100.11);

注:测试参考官方链接:https://github.com/MyCATApache/Mycat-Server

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 221,576评论 6 515
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 94,515评论 3 399
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 168,017评论 0 360
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,626评论 1 296
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,625评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 52,255评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,825评论 3 421
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,729评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,271评论 1 320
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,363评论 3 340
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,498评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 36,183评论 5 350
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,867评论 3 333
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,338评论 0 24
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,458评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,906评论 3 376
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,507评论 2 359

推荐阅读更多精彩内容