Spark IM 插件开发环境搭建

Stella981
• 阅读 604

网上这方面的资料好少哦,官方的文档也很久没有更新了,走了不少弯路 T_T,新手入门,高玩见谅~

准备工作

Sparkplug Kit下载:sparkplug_kit_2_0_7.zip

Sparkplug Kit文档:Development Guide

官方demo 插件Jar:examples.jar

这个jar解压后,配合docs看,有里面的demo的源码

还有就是之前搭建好的源码开发环境,编译成功的target文件夹(很重要...因为这个sparkplug_kit开发环境是很老的spark版本...)

文库里面一个doc中文版:http://wenku.baidu.com/view/7a8c04c9d5bbfd0a79567350.html

环境搭建

1、创建Project

创建一个叫Sparkplug的JavaProject

将 sparkplug_kit_2_0_7.zip 解压出来目录下的 builder、spark文件夹拷贝到这个项目的目录下

将之前spark源码开发环境编译成功后的 target/build 下的文件夹替换当前项目 Sparkplug/spark/ 目录下的所有文件(删除之前的先,不是合并)

2、设置属性

右键项目,设置Properties,Java Build Path

Source:选择Sparkplug/builder/src

Libraries:导入Sparkplug/spark/lib 下的所有jar

HelloWorld

1、写一个demo

新建一个包目录,com.mypackage,然后创建一个MyPlugin.java 的Class(默认路径,这样建立后配置文件基本不用改了,后面会说)

实现Plugin接口

public class MyPlugin implements Plugin {
    
    /**
     * Called after Spark is loaded to initialize the new plugin.
     * 初始化事件
     */
    @Override
    public void initialize() {
        System.out.println("——————————Welcome To Spark———————————");
            addTabToSpark();
    }

    /**
     * Called when Spark is shutting down to allow for persistence of information
     * or releasing of resources.
     * 关闭事件,以便对信息的持久化或释放资源
     */
    @Override
    public void shutdown() {
        System.out.println("——————————shutdown———————————");
    
    }

    /**
     * Return true if the Spark can shutdown on users request.
     * @return true if Spark can shutdown on users request.
     * 是否允许用户直接关闭
     * 返回 是否允许
     */
    @Override
    public boolean canShutDown() {
        
        return false;
    }

    /**
     * Is called when a user explicitly asked to uninstall this plugin.
     * The plugin owner is responsible to clean up any resources and
     * remove any components install in Spark.
     * 删除插件事件
     * 清除资源文件、组件等等
     */
        @Override
        public void uninstall() {
        
        }
    
    /**
     * 将我自己的标签到Spark工作空间
     */
    private void addTabToSpark(){
        System.out.println("——————————addTabToSpark———————————");
        // 从 SparkManager(Spark管理器) 获取 Workspace UI(主界面) 对象
        Workspace workspace = SparkManager.getWorkspace();
        // 从 Workspace UI 对象获取 SparkTabbedPane(底部Tab栏) 对象
        SparkTabbedPane sparkTabbedPane = workspace.getWorkspacePane();
        // 添加自定义Tab
        sparkTabbedPane.addTab("我的标签", null, new JButton("哈哈"));
    }
    
}

可以看到,我们需要实现

initialize()、shutdown()、canShutDown()、uninstall() 四个方法

前2个很好理解,canShutDown()目前还没弄清楚是干嘛的...-_-#,uninstall()还没用到过。

总之先来个最简单的例子创建一个自己的标签。

2、配置文件

打开Sparkplug/builder 目录下的 plugin.xml 文件

<!-- Define your plugin -->
<plugin>
    <!-- 插件的名称 -->
    <name>My Plugin</name>
    <!-- 插件的版本 -->
    <version>1.0</version>
    <!-- 插件的作者 -->
    <author>Don Juan</author>
    <!-- 关于该插件更多信息的地址 -->
    <homePage>http://www.jivesoftware.org</homePage>
    <!-- 邮箱地址 -->
    <email>donjuan@jivesoftware.com</email>
    <!-- 插件的描述 -->
    <description>This is my first cool Spark Plugin.</description>
    <!-- 类路径 -->
    <class>com.mypackage.MyPlugin</class>
    <!-- 允许该插件最小的Spark版本号,如果Spark的版本号比需要的小,则插件不会被启动 -->
    <minSparkVersion>2.0.0</minSparkVersion>
</plugin>

如果你的包结构是这样的话,就不用改了,如果不一样请修改标签下的路径

3、打包

打开sparkplugs/builder/build 下的 build.xml

<project name="sparkplug" default="jar" basedir="..">

    <property name="plug.dir" value="${basedir}/."/>
    <property name="plug.lib.dir" value="${plug.dir}/lib"/>

    <property name="classes.dir" value="${basedir}/build/classes"/>
    <property name="src.dir" value="${plug.dir}/src"/>
    <property name="target.dir" value="${plug.dir}/target"/>
    <property name="target.lib.dir" value="${plug.dir}/target/lib"/>
    <property name="jar.file" value="${target.dir}/lib/plugin-classes.jar"/>

    <property name="spark.home" value="${plug.dir}/../spark" />

    <path id="lib.classpath">
        <fileset dir="${plug.lib.dir}" includes="**/*.jar, **/*.zip"/>
        <fileset dir="${spark.home}/lib" includes="**/*.jar, **/*.zip"/>
        <fileset dir="${spark.home}/lib/windows" includes="**/*.jar" />
    </path>

    <target name="clean" description="Cleans all build related output">
        <delete file="${jar.file}"/>
        <delete dir="${classes.dir}"/>
        <delete dir="${target.dir}"/>
    </target>

    <target name="compile" description="Compiles plugin source">
        <mkdir dir="${classes.dir}"/>
        <javac srcdir="${src.dir}"
               destdir="${classes.dir}"
               classpathref="lib.classpath"
               source="1.6"
               debug="true"
               target="1.6"/>
        <copy todir="${classes.dir}">
        <fileset dir="${src.dir}" includes="**/*.png"/>
        <fileset dir="${src.dir}" includes="**/*.gif"/>
        <fileset dir="${src.dir}" includes="**/*.jpg"/>
        <fileset dir="${src.dir}" includes="**/*.jpeg"/>
        </copy>
    </target>

    <target name="jar" depends="clean,compile" description="Makes a plugin jar">
        <mkdir dir="${target.dir}" />
        <mkdir dir="${target.lib.dir}"/>

        <copy todir="${target.lib.dir}">
            <fileset file="${plug.lib.dir}/lib" includes="**/*"/>
        </copy>

        <copy todir="${target.dir}">
            <fileset file="${plug.dir}/plugin.xml"/>
        </copy>

        <jar basedir="${classes.dir}" file="${jar.file}" update="false"/>

        <zip zipfile="${plug.dir}/myplugin.jar" basedir="${target.dir}" />
    </target>

    <target name="run" depends="jar" description="Makes a plugin jar and starts Spark with that plugin">
        <copy todir="${basedir}/../spark/plugins"
            file="${plug.dir}/myplugin.jar" />

        <property name="sparklib" value="${basedir}/../spark/lib" />
        <java fork="true" classname="org.jivesoftware.Spark" dir="${basedir}/../spark/bin">
            <classpath>
                <fileset dir="${sparklib}">
                    <include name="**/*.jar" />
                    <include name="**/*.exe" />
                    <include name="**/*.dll" />
                </fileset>
                <pathelement location="${basedir}/../spark/resources" />
            </classpath>
            <jvmarg value="-Dappdir=${basedir}/../spark" />
        </java>
    </target>

</project>

代码中的这一段

    <target name="compile" description="Compiles plugin source">
        <mkdir dir="${classes.dir}"/>
        <javac srcdir="${src.dir}"
               destdir="${classes.dir}"
               classpathref="lib.classpath"
               source="1.4"
               debug="true"
               target="1.4"/>
        <copy todir="${classes.dir}">
        <fileset dir="${src.dir}" includes="**/*.png"/>
        <fileset dir="${src.dir}" includes="**/*.gif"/>
        <fileset dir="${src.dir}" includes="**/*.jpg"/>
        <fileset dir="${src.dir}" includes="**/*.jpeg"/>
        </copy>
    </target>

基本配置都不用改,只需将1.4改为1.6即可

Window ——> Show View ——> Ant ——> Add Buildfiles

加入Sparkplug/builder/build/build.xml,双击sparkplugs

看到控制台BUILD SUCCESSFUL,就好了~

目录Sparkplug/builder下的myplugin.jar 就是打包成功后的插件了,如果要直接使用的话,只需将其拷贝进spark软件目录下plugins文件夹中就可以了。

4、运行

不要直接运行

右键项目 Run As ——> Run Configurations

创建一个Java Application

Main:

Project:选择当前项目Sparkplug

MainClass:org.jivesoftware.launcher.Startup

建议勾上Stop in Main

Arguments:

VM arguments:-Dplugin="${workspace_loc:Sparkplug}\builder\target\plugin.xml"

ClassPath:

User Entries ——> Advanced Options ——> Add Foldes 选择 Sparkplug/spark/resources

点击Run

Spark IM 插件开发环境搭建

成功了~

资料

Sparkplug Kit文档:http://www.igniterealtime.org/builds/sparkplug_kit/docs/latest/sparkplug_dev_guide.html

官方API文档:http://www.igniterealtime.org/builds/sparkplug_kit/docs/latest/api/index.html

点赞
收藏
评论区
推荐文章
blmius blmius
3年前
MySQL:[Err] 1292 - Incorrect datetime value: ‘0000-00-00 00:00:00‘ for column ‘CREATE_TIME‘ at row 1
文章目录问题用navicat导入数据时,报错:原因这是因为当前的MySQL不支持datetime为0的情况。解决修改sql\mode:sql\mode:SQLMode定义了MySQL应支持的SQL语法、数据校验等,这样可以更容易地在不同的环境中使用MySQL。全局s
皕杰报表之UUID
​在我们用皕杰报表工具设计填报报表时,如何在新增行里自动增加id呢?能新增整数排序id吗?目前可以在新增行里自动增加id,但只能用uuid函数增加UUID编码,不能新增整数排序id。uuid函数说明:获取一个UUID,可以在填报表中用来创建数据ID语法:uuid()或uuid(sep)参数说明:sep布尔值,生成的uuid中是否包含分隔符'',缺省为
待兔 待兔
3个月前
手写Java HashMap源码
HashMap的使用教程HashMap的使用教程HashMap的使用教程HashMap的使用教程HashMap的使用教程22
Jacquelyn38 Jacquelyn38
3年前
2020年前端实用代码段,为你的工作保驾护航
有空的时候,自己总结了几个代码段,在开发中也经常使用,谢谢。1、使用解构获取json数据let jsonData  id: 1,status: "OK",data: 'a', 'b';let  id, status, data: number   jsonData;console.log(id, status, number )
Wesley13 Wesley13
3年前
PS打包实现AI图像论文,英伟达在实时视频PS之路上越走越远
  编辑:Panda  !(https://nimg.ws.126.net/?urlhttp%3A%2F%2Fdingyue.ws.126.net%2F2020%2F1028%2F88b5e6ffj00qiwi6t000id000l000kup.jpg&thumbnail650x2147483647&quality80&typejpg)
Wesley13 Wesley13
3年前
P2P技术揭秘.P2P网络技术原理与典型系统开发
Modular.Java(2009.06)\.Craig.Walls.文字版.pdf:http://www.t00y.com/file/59501950(https://www.oschina.net/action/GoToLink?urlhttp%3A%2F%2Fwww.t00y.com%2Ffile%2F59501950)\More.E
Wesley13 Wesley13
3年前
mysql设置时区
mysql设置时区mysql\_query("SETtime\_zone'8:00'")ordie('时区设置失败,请联系管理员!');中国在东8区所以加8方法二:selectcount(user\_id)asdevice,CONVERT\_TZ(FROM\_UNIXTIME(reg\_time),'08:00','0
Wesley13 Wesley13
3年前
00:Java简单了解
浅谈Java之概述Java是SUN(StanfordUniversityNetwork),斯坦福大学网络公司)1995年推出的一门高级编程语言。Java是一种面向Internet的编程语言。随着Java技术在web方面的不断成熟,已经成为Web应用程序的首选开发语言。Java是简单易学,完全面向对象,安全可靠,与平台无关的编程语言。
Wesley13 Wesley13
3年前
MySQL部分从库上面因为大量的临时表tmp_table造成慢查询
背景描述Time:20190124T00:08:14.70572408:00User@Host:@Id:Schema:sentrymetaLast_errno:0Killed:0Query_time:0.315758Lock_
Python进阶者 Python进阶者
9个月前
Excel中这日期老是出来00:00:00,怎么用Pandas把这个去除
大家好,我是皮皮。一、前言前几天在Python白银交流群【上海新年人】问了一个Pandas数据筛选的问题。问题如下:这日期老是出来00:00:00,怎么把这个去除。二、实现过程后来【论草莓如何成为冻干莓】给了一个思路和代码如下:pd.toexcel之前把这