Skip to content
Cheng-Jun Wang edited this page Jun 16, 2019 · 21 revisions

复旦大学新媒体硕士课程



《计算新闻传播学》



小组大作业(Final Group Project)

  • Deadline: 2019年7月22日 23:59:59 (每迟交一天,降低百分之十的分数)

  • 分组要求:最好三个人一组,因人数限制可以有四个人一组,不能超过四个人。

  • 要求在notebook中完成,包括文字的介绍和数据分析的代码。格式如下:

    • 项目题目
    • 项目摘要
    • 引言
    • 研究思路:要有对于研究项目的系统的描述
    • 研究发现
    • 结论:总结研究的发现
  • 必选:OWS推特数据分析

    • 计算每一天有多少条tweets
    • 提取某一天的数据dat,存到硬盘里,
    • 对dat数据进行清洗和描述
    • 文本分析
      • 选取部分数据建立主题模型或情感分析的模型
      • 构建给用户推荐Hashtag的推荐系统:
        • 将数据整理为以下格式:人、hashtag、次数
        • 对以上数据构建基于物的相似性的推荐系统
    • 构建评论网络
      • 对评论网络进行描述和分析

个人可选加分项目 (Final Group Project For Individuals)

第八次作业

  • 下载www数据
    • WWW Data download http://www3.nd.edu/~networks/resources.htm World-Wide-Web: [README] [DATA] Réka Albert, Hawoong Jeong and Albert-László Barabási: Diameter of the World Wide Web Nature 401, 130 (1999) [ PDF ]
  • 构建networkx的网络对象g(提示:有向网络),将www数据添加到g当中
  • 计算网络中的节点数量和链接数量
  • 计算www网络的网络密度
  • 绘制www网络的出度分布、入度分布
  • 使用BA模型生成节点数为m取值为2,N取值分别为10、100、1000、10000时,绘制平均路径长度d与节点数量的关系

第七次作业

    1. 练习实现UserCF和ItemCF的python代码
    1. 使用graphlab对于音乐数据或电影数据构建推荐系统

第六次作业

  • 使用graphlab进行主题模型分析

第五次作业

第四次作业

政府工作报告文本挖掘,分词、词云、时间序列三个部分

第三次作业

  • 天涯论坛数据的统计分析部分
  • 泰坦尼克号数据的机器学习部分,要求尝试使用新的算法建立机器学习的模型。

第二次作业

  • 运行notebook
    • 从ows_raw.txt数据中采用lazy method提取转发人、被转发人和频数。
  • 附件上传到issue里,提交方式:
    • 苹果用户download as html,压缩为zip文件提交
    • windows用户download as markdown,压缩为zip提交

第一次作业

        %matplotlib inline
	import random, datetime
	import numpy as np
	import matplotlib.pyplot as plt
	import matplotlib
	import statsmodels.api as sm
	from scipy.stats import norm
	from scipy.stats.stats import pearsonr
  • 将生成的.ipynb文件另存为html文件;
  • 将html文件压缩为zip作为附件上传到issue里。

说明:所有的代码可以在这里快速浏览 http://nbviewer.jupyter.org/github/computational-class/cjc/tree/gh-pages/code/