- 主题:▲中科大基本碾压上海交大、浙江大学了
浙江大学的一直用各种假排行榜贬低中国科大,上交的软科(最好大学)假排行榜也一直在贬低中国科大,中国科大再不宣传、反击麻烦就大了。
【 在 ABARTH 的大作中提到: 】
: 科大本来就很强啊 还用宣传么
--
修改:Y93SSYS711 FROM 123.112.16.*
FROM 123.112.16.*
山东第二是中科院大学
【 在 song2692005 的大作中提到: 】
: 山东第二是谁?清华第一,北大第三,
--
FROM 123.112.16.*
本贴一楼说的都是客观事实,有据可查。
提醒浙江大学的,造假、贼喊捉贼、恶意攻击都是违法的,小心牢狱之灾
【 在 linux101 的大作中提到: 】
: 这这年,合肥科技大学,吹牛的水平没落下。
--
修改:Y93SSYS711 FROM 123.112.16.*
FROM 123.112.16.*
吉大的院士校友数、杰青校友数都和浙江大学差不多,吉大也是不会宣传
【 在 HAITABA 的大作中提到: 】
: 吉大可能是盘子大的原因
--
FROM 123.112.16.*
哪里人都有说真话的权利,一楼不都是客观事实吗? 尊重事实有那么难吗?
【 在 ofish 的大作中提到: 】
: 楼主山东人
--
FROM 123.112.16.*
我看过deepseek的技术资料,基本就是模仿openAI 的chatGPT,完全基于transformer神经网络架构。
从下面的事实也能看出deepseek就是一个普通大模型,和国内其他大模型没啥区别:
1、chatgpt早期有开源,国内很多人(尤其高校院所等)下载、备份了源码,供自己或自己公司研究。
2、微软meta腾讯阿里百度科大讯飞等公司都是沿用chatgpt研发、训练模式、路径。而deepseek在训练上采用的是“蒸馏”法,属于投机取巧的路径,采用“蒸馏”法可以去掉很多无关数据,从而在数据检索上提高性能。正是因为这个原因,所以deepseek只是表面、短暂超过chatgpt几天,很快又被chatgpt甩在后面
3、deepseek找的技术人员大部分是北大、清华刚毕业的博士或者实习生,刚毕业的博士或者实习生能有多高的经验、水平,很多人写程序代码还在模仿、学习阶段。
【 在 aKong 的大作中提到: 】
: 不是哥们,就这?
: 你评价一个大模型就靠砖家在讲座上的发言?
: 一不看技术报告二不讲应用场景三没有数据支持
: ...................
--
修改:Y93SSYS711 FROM 123.112.16.*
FROM 123.112.16.*
从1998年开始,浙江大学就一直用各种假排行榜吹牛、造假,损人利己,贬低中科大。
近15年左右,上交一直用软科(最好大学)假排行榜贬低中科大。
中科大不得不用客观事实反击假排行榜,扒皮某些大学造假。
【 在 fourth 的大作中提到: 】
: 总是爱拿学校比来比去的,就是中科大的人最甚,也不知道为啥
:
--
修改:Y93SSYS711 FROM 123.112.16.*
FROM 123.112.16.*
2024年,哈工程高一点,哈工大招生基数太多,还有威海校区
【 在 dogtays 的大作中提到: 】
: 哈工程保研率比哈工业还高了吗?
:
--
FROM 123.112.16.*
之前用过deepseek,后来卸了,不好用。
【 在 aKong 的大作中提到: 】
: 谎话说多了把自己都骗了
: 1.chatGPT开源的是什么版本?现在闭源的跟开源的差多少?
: 2.去掉无关数据是投机取巧,敢情多用无关数据才是正确的?
: ...................
--
FROM 123.112.16.*
造假的太多,还有人造假鼓吹清北复交,大家小心上当
--
FROM 123.112.16.*