일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
- Kubernetes
- 신탁공매
- OpenSearch
- pod
- 매입불공제
- command
- 인덱싱
- serverless
- Resolver
- 경매
- Filter
- 농지연금
- 외국납부세액공제
- kubectl
- 공매
- 리소스
- AWS
- 금융소득
- S3
- boto3
- 세금계산서
- 임업후계자
- lambda
- node
- 양도소득세
- 정책자금
- 성능개선
- python
- 산지연금
- route53
- Today
- Total
목록IT (42)
진지한 개발자
merge 취소 > git merge --abort local에 reset hard 이용 > git fetch --all # remote저장소에서 이전 fetch 받기 > git reset --hard origin/master # conflict 나기 전 버전으로 원복 > git pull origin master diff 확인 후 rebase > git checkout master > git fetch > git diff origin/master > git rebase origin master fetch fetch할때 Git은 현재 브랜치에서 존재하지 않는 커밋을 현재 브랜치에서 수집한 다음 local repository에 저장 함 현재 로컬의 상태와 병합하지 않음 저장소를 최신 상태로 유지해야 하지만 ..

- container는 pod 라는 오브젝트에 감싸져 있으며, Pod에는 여러개의 Container가 들어갈 수 있음 - Pod 내의 Container 들이 서로 다른 종류일 경우에 한해서 가능 함 - 같은 pod 내의 Container 들은 같은 네트워크 공간을 공유하기 때문에 직접 커뮤니케이션 가능 ### Multi Container Pod 의 3가지 패턴 Sidecar Pattern 하나의 컨테이너는 하나의 책임만 가져야 한다. 서로 다른 역할을 하는 서비스는 각각의 Container로 분리하는 것이 좋음 하나의 Pod 안에 책임에 따라 Web Server Container(Main Container)와 Log Saving Sidecar Container(Sidecar Container) 로 나눔 ..
오브젝트 생성 kubectl apply -f ./my-manifest.yaml # 리소스(들) 생성 kubectl apply -f ./my1.yaml -f ./my2.yaml # 여러 파일로 부터 생성 kubectl apply -f ./dir # dir 내 모든 매니페스트 파일에서 리소스(들) 생성 kubectl apply -f [https://git.io/vPieo](https://git.io/vPieo) # url로부터 리소스(들) 생성 kubectl create deployment nginx --image=nginx # nginx 단일 인스턴스를 시작 # "Hello World"를 출력하는 잡(Job) 생성 kubectl create job hello --image=busybox:1.28 -- ec..
주요 명령어# 압축파일 읽기$ zcat file.gz | tail -n 100$ zgrep '찾을 단어' /path/to/test.gz$ zgrep 'GET /faq/url/' /path/to/access.log.gz# vi 편집기$ :set paste$ GG # 맨 앞줄 이동$ dG # 커처 아래는 다 삭제
Delta Lake Apache Spark 기반의 오픈소스 데이터 레이크 다양한 데이터 소스와 파일 형식을 지원하며, 높은 확장성과 무결성 보장 함 주요 쿼리 1. 데이터 쓰기 from delta import * data = spark.range(0, 5) data.write.format("delta").save("/delta-table") 위 코드는 Spark DataFrame을 Delta Lake 테이블로 저장하는 예시입니다. Delta Lake는 Spark의 기본 파일 형식이 아닌 별도의 파일 형식을 사용합니다. 이를 위해 delta 포맷을 사용하여 저장합니다. 2. 데이터 읽기 from delta import * data = spark.read.format("delta").load("/delta-..
Delta Lake의 주요 장점 확장성: Delta Lake는 수많은 대규모 데이터를 처리할 수 있도록 확장성이 뛰어나며, 필요에 따라 클라우드 컴퓨팅 자원을 효율적으로 활용할 수 있음 비용 효율성: Delta Lake는 보통 저렴한 하드웨어에서 구동되며 클라우드에서 실행될 때도 비용 효율적임 데이터 유연성: Delta Lake는 다양한 데이터 유형을 처리할 수 있습니다. 특히 비정형 데이터에 강함. 데이터 무결성: Delta Lake는 여러 사용자가 동시에 데이터를 수정할 때 데이터 무결성을 보장함 다양한 포맷 지원: Delta Lake는 다양한 파일 포맷을 지원하여 유연한 데이터 처리를 가능하게 함 비정형 데이터를 처리하거나, 비용 효율성이 중요한 경우 적합 Amazon Redshift의 장점 성능:..
기본세팅 spark 와 java 호환 버전 확인 https://docs.scala-lang.org/overviews/jdk-compatibility/overview.html Java 설치 wget https://download.oracle.com/java/17/latest/jdk-17_linux-x64_bin.rpm sudo rpm -ivh jdk-17_linux-x64_bin.rpm sudo alternatives --config java java -version scala 설치 Coursier : JVM 및 기본 Scala 툴을 자동 설치 해 줌 설치경로 : https://github.com/coursier/launchers/raw/master/cs-x86_64-pc-win32.zip ammonite..
기본세팅 spark 와 java 호환 버전 확인 The Scala 3.x series supports JDK 8, as well as 11 and beyond. https://docs.scala-lang.org/overviews/jdk-compatibility/overview.html Java(17) 설치 Correto 17 설치 sudo yum install java-17-amazon-corretto Java 환경변수 설정 (~/.bashrc 에 작성후 source ~/.bashrc 적용 # Java set export JAVA_HOME=/usr/lib/jvm/java-17-amazon-corretto export PATH=$JAVA_HOME/bin:$PATH export CLASS_PATH=$JAVA..
git 초기 등록 git init git add . git commit -m "Add existing project ro Git first" git remote add origin https://github.com/~~~~~.git git push -u -f origin master $ git log git push git branch git add . git commit -m "comment" git pushgit merge git merge master git push --set-upstream origin git checkout master git pull git merge git push origin mastergit stash git stash git checkout master git pull..
flutter_bloc BLoC 패턴을 사용하기 위해 정형화된 구조를 사용 함 BehaviorSubject 객체 정의 최상위의 BLoC 객체 생성 Stream 반환 객체 정의 add, delete, update 로직 async*, yield : stream 형태로 지속적으로 방출하기 위한 키워드 flutter_bloc 객체를 사용하기 위해서 BlocProvider, BlocBuilder 를 사용해야 함 BlocProvider BloC 객체를 제공해 주기 위해 사용하는 클래스 create 속성을 사용해 BLoC 을 MaterialApp에 주입, 모든 하위 위젯들이 사용 가능해 짐 BlocProvider 로 MaterialApp 을 감싸 인스턴스를 모든 앱 내부에서 사용할 수 있도록 함 BlocBuilder..