添加链接
link之家
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接

有时候会遇到需求查两个日期直接多少个工作日。

这里面除了周六日还涉及到法定节假日和调休等情况。


这些情况都是需要在工厂日历里维护的。

使用下面代码的前台是,工厂日历已经正确维护。


获取两个日期间多少个工作日_java


或者直接使用维护工厂日历 tcode: SCAL

获取两个日期间多少个工作日_java_02

具体维护过程自己上网一搜即可,这里不再赘述、


获取日期间工作日天数:


FUNCTION ZMM_GET_WORKDAYS .
*"----------------------------------------------------------------------
*"*"Local Interface:
*"  IMPORTING
*"     REFERENCE(IV_FROM) TYPE  SY-DATUM DEFAULT SY-DATUM
*"     REFERENCE(IV_TO) TYPE  SY-DATUM DEFAULT SY-DATUM
*"     REFERENCE(IV_FACTORY_CALENDAR) LIKE  SCAL-FCALID DEFAULT 'CN'
*"     REFERENCE(IV_HOLIDAY_CALENDAR) LIKE  SCAL-HCALID DEFAULT 'CN'
*"     REFERENCE(IV_NC_TODAY) TYPE  FLAG DEFAULT 'X'
*"  EXPORTING
*"     REFERENCE(EV_DAYS) TYPE  INT4
*"----------------------------------------------------------------------

DATA : LT_DAY_ATTRIBUTES TYPE TABLE OF CASDAYATTR .
DATA : LS_DAY_ATTRIBUTES TYPE CASDAYATTR .


CALL FUNCTION 'DAY_ATTRIBUTES_GET'
EXPORTING
FACTORY_CALENDAR = IV_FACTORY_CALENDAR
HOLIDAY_CALENDAR = IV_HOLIDAY_CALENDAR
DATE_FROM = IV_FROM
DATE_TO = IV_TO
TABLES
DAY_ATTRIBUTES = LT_DAY_ATTRIBUTES
EXCEPTIONS
FACTORY_CALENDAR_NOT_FOUND = 1
HOLIDAY_CALENDAR_NOT_FOUND = 2
DATE_HAS_INVALID_FORMAT = 3
DATE_INCONSISTENCY = 4
OTHERS = 5 .
IF SY - SUBRC <> 0 .

ENDIF .


*&除去节假日
DELETE LT_DAY_ATTRIBUTES WHERE FREEDAY = 'X' .

DESCRIBE TABLE LT_DAY_ATTRIBUTES LINES EV_DAYS .

IF IV_NC_TODAY = 'X' .
"如果to date 是工作日除去 当天
READ TABLE LT_DAY_ATTRIBUTES TRANSPORTING NO FIELDS
WITH KEY DATE = IV_TO .

IF SY - SUBRC = 0 .
EV_DAYS = EV_DAYS - 1 .
ENDIF .
ENDIF .

ENDFUNCTION .


HTML5 表格元素 html表格元素有哪些

表格元素的作用:用来格式化显示数据。一、表格的基本结构表格的基本语法:<TABLE border="设置表格边框尺寸大小" width="" cellpadding="" cellspaning=""> <TR align="对齐方式"> <TD align=""> 单元格内容

python中list打印中文乱码 python2.7 print中文乱码

python最开始这行加了-*- coding: utf-8并且print("你好"),是可以打印出来的。chn_tab = ["啊","阿"] rec = "" for predict_label in pos: if predict_label != blank_label and predict_label != prev_label: rec += chn_tab

python3读文件gbk python读取gbk

今天尝试了下爬虫,爬取一本小说,忘语的凡人修仙仙界篇,当然这样不好,大家要支持正版。  爬取过程中是老套路,先获取网页源代码  # -*- coding:UTF-8 -*- from bs4 import BeautifulSoup import requests if __name__ =='__main__': url='http://www.biquge.com.tw/18_189

4.2071 verbose node v16.6.0 2072 verbose npm v7.19.1或者 no such file or directory, lstat ‘D:\wor 5.解决PS 24.6beta版AI填充生成报错error response image not found:1000